Fast alle Finanzinstitute erproben Generative AI, mehr als die Hälfte sieht jedoch noch keinen signifikanten Mehrwert – so eine aktuelle Studie von Economist Impact. Ein Feld, in dem der Mehrwert von KI unbestritten ist, stellt die Betrugsprävention dar.
Die Zeitfenster für die Erkennung und Blockierung von Betrugsversuchen werden geringer – insbesondere auch durch die Einführung von Instant Payment. Weil Betrüger immer öfter auf KI setzen, sehen sich Finanzinstitute mit einer dramatisch gestiegenen Zahl von Betrugsversuchen konfrontiert, dieraffinierter werden und traditionelle Sicherheitsmaßnahmen oft überfordern.
Allerdings bietet die Technologie im Umkehrschluss auch bessere Möglichkeiten, dem entgegenzuwirken. Voraussetzung: Banken sind Angreifern technologisch einen Schritt voraus. Moderne Betrugserkennungssysteme müssen sich ebenso rasch entwickeln wie die Tools der Betrüger, um auf deren Augenhöhe zu bleiben.
Eine breite Palette an Angriffsmethoden
Eine fast nicht steuerbare Komponente ist die Art von Angriffen, denen Kunden ausgesetzt sind. Mit ständig neuen Variationen von Phishing werden per Mail oder SMS Zugangsdaten und Kreditkartennummern gestohlen, Spear-Phishing dient dem Ausspähen von Personen oder Organisationen. Via Malware gelangen Fraudster an sensible Informationen oder kompromittieren Systeme. Social Engineering, Account Take-over, Man-in-the-Middle-Angriffe – die Liste wird lang und länger. Für Finanzinstitute stellt dies eine existenzgefährdende Herausforderung dar: Im Rahmen der Sorgfaltspflicht sind sie verantwortlich, angemessene Sicherheitsmaßnahmen zu ergreifen, um ihre Kunden vor Betrug zu schützen. Sie haften bei Schäden und müssen sogar Schadenersatz leisten, sofern sie diese Pflicht verletzen.
Klassische Maßnahmen: Effektiv, aber aufwendig
In der klassischen Betrugsprävention setzen Banken auf eine Kombination aus internen und externen Daten (zum Beispiel biometrische Daten und Datenpools), auf Scoring-Modelle, Regelwerke, Passwortschutz und Zwei-Faktor-Authentifizierung, Verschlüsselung sowie Plausibilitätsprüfungen. Darüber hinaus nutzen sie die Erkennung von Transaktionsmustern zur Identifizierung verdächtiger Aktivitäten, Überwachungssysteme und regelmäßige Schulungen für Mitarbeiter. Diese Maßnahmen funktionieren zuverlässig als Grundlage für eine effektive Betrugsprävention, sind aber relativ zeitraubend, da sie teilweise manuelle Aktionen voraussetzen, und lassen Banken daher Betrügern nicht selten hinterherschauen.
Moderne Betrugsprävention setzt dagegen fortschrittliche Technologien wie KI, maschinelles Lernen oder eben auch Generative-AI-Methoden ein. Banken sind damit auch für raffinierteste Angriffe gewappnet, indem sie Anomalien in Echtzeit erkennen und sich an neue Betrugsmuster anpassen können.
KI als Katalysator für Betrugsprävention
Basis für die fortschrittliche, KI-gestützte Datenanalyse sind dynamische und adaptive Algorithmen, die kontinuierlich aus neuen Daten lernen und sich weiterentwickeln. Woran es oft fehlt, sind die dafür erforderlichen Datensätze „echter“ Betrugsfälle. Diese eingeschränkte Verfügbarkeit kann aber mittlerweile durch die Nutzung KI-generierter synthetischer Datensätze überwunden werden.
Moderne Fraud-Prevention-Systeme erlauben die Entwicklung neuer Strategien mit realen Daten im Sandbox-Ansatz und unterstützen die schnelle und einfache Inbetriebnahme durch die Fachabteilung. Die Überwachung der Transaktionen und Systeme muss in Echtzeit erfolgen, um sofort Maßnahmen ergreifen zu können, sobald verdächtige Aktivitäten erkannt werden. Dies ist auch für das Instant-Payment-Zahlverfahren unabdingbar, bei dem die Zahlung innerhalb 10 Sekunden – von der Beauftragung bis zur Gutschrift – abgewickelt sein muss.
EU AI Act setzt hohe Maßstäbe
Europäische Regulatorik stuft KI-Systeme, die zur Betrugsabwehr eingesetzt werden, grundsätzlich als hochriskant ein. Diese Klassifizierung bedeutet strenge Anforderungen an Sicherheit und ethische Anwendung. Derartige Systeme müssen umfassende Risikoanalysen und Transparenzverpflichtungen erfüllen. Banken sind in der Pflicht, Transparenz und Erklärbarkeit zu leisten, um für den Regulator die Entscheidungen der KI-Systeme nachvollziehbar zu machen. Darüber hinaus sind diese Systeme ständig auf neueste Sicherheitsstandards hin zu prüfen und zu aktualisieren.
Finanzinstitute haben heute gar keine Wahl mehr: Klassische Fraud-Systeme sind den Anforderungen nicht mehr gewachsen und müssen ausgebaut werden. Die Integration von KI, maschinellem Lernen & Co. ist unerlässlich, um den immer raffinierteren Betrugsversuchen effektiv entgegenzuwirken.
Über den Autor:
Thomas Schwalbe verfügt über mehr als 27 Jahre Erfahrung im Banken- und Finanzdienstleistungssektor, davon 25 Jahre im Vertrieb mit Schwerpunkt auf Risikomanagement, Betrugsprävention und Regulatorik. Seine Expertise umfasst Analytik, Datenmanagement, Systeme, Dienstleistungen und angewandte KI.