Social Engineering 4.0: Wenn die KI lernt, wie Betrüger agieren

Nach Angaben des US-amerikanischen FBI gehen die finanziellen Schäden durch Social Engineering weltweit in die Milliarden. Dazu gehören beispielsweise Angriffe wie der „CEO-Fraud“, auch bekannt als Chefbetrug oder Geschäftsführer-Trick. Allein in Deutschland laufen inzwischen mehr als 200 Ermittlungen, in denen Unternehmen geprellt wurden, weil Cyber-Kriminelle erfolgreich manipuliert haben und Überweisungen, zumeist ins Ausland, veranlassen konnten. Doch durch künstliche Intelligenz (KI), die Stimmen von Entscheidern klonen können, entstehen ganz neuartige Bedrohungsszenarien von Social-Engineering-Attacken – auch für Banken.

Die denkbar einfachste Masche des Social Engineerings ist der sogenannte CEO-Fraud: Cyber-Kriminelle versenden E-Mails oder Textnachrichten an Mitarbeiter eines Unternehmens und geben sich darin als Geschäftsführer oder Vorstand aus, mit dem Ziel eine „dringende“ geschäftliche Transaktion zu veranlassen. Die Betrüger verlangen zumeist Vertraulichkeit der Mitarbeiter, damit der Plan aufgeht (vgl. Abbildung).

Unzählige Unternehmen sind bereits Opfer dieser Manipulation geworden, wie etwa der Autozulieferer Leoni, der um 40 Millionen Euro geprellt wurde. Beim Schokoladenhersteller Ritter Sport hatten die Betrüger dagegen kein Glück. Ein Buchhalter wurde skeptisch, verständigte die Polizei und ermöglichte so eine spektakuläre Festnahme.

Cyber-Kriminelle machen sich die Digitalisierung zu Nutze!

Etwas behelfsmäßig sensibilisieren die meisten Unternehmen ihre Mitarbeiter durch Richtlinien, Schulungen oder interne Informations-Kampagnen. Sie sind angehalten, verstärkt auf korrekte Absender oder auch Anreden zu achten. Auffällig ist beispielsweise, wenn eine sehr förmliche Nachricht eingeht, obwohl sich im Unternehmen alle duzen. Interne Anweisungen oder auch Checklisten helfen dabei, trotz des aufgebauten Drucks – Eilig! Dringend! Vertraulich! – besonnen und aufmerksam zu handeln. Doch zum ohnehin dominierenden Risikofaktor Mensch gesellt sich mit „Social Engineering 4.0“ eine neuartige Herausforderung: Was, wenn der vermeintliche CEO am Telefonhörer ist und Mitarbeiter von einem täuschend echt klingenden Stimmenklon zur Ausführung von Transaktionen verleitet werden?

Was wie ferne Zukunftsmusik klingt, ist schon heute ein Stück weit Realität. Erst 2018 hat der Google-Mutterkonzern Alphabet eine KI vorgestellt, die im Namen des Anwenders Anrufe tätigen und Termine planen kann. Google Duplex ist mit Hilfe der natürlichen Sprachverarbeitung (kurz NLP) in der Lage, menschliche Gesprächscharakteristiken präzise nachzuahmen, um das Telefonat möglichst authentisch klingen zu lassen. Das kanadische Startup Lyrebird hat sogar eine KI entwickelt, die eine Stimme klont. Bereits Sprachschnipsel von wenigen Minuten sollen dafür ausreichen. Ein Imagefilm im Internet oder auch ein kurzer Einspieler während einer Nachrichtensendung können schon ausreichen, um einen Stimmenklon von Personen anzufertigen – und damit erreicht das Risikopotential sowie die Erfolgsquote von Cyber-Angriffen eine neue Stufe.

Vorbereitung und Ausführung von Cyber-Angriffen wird zunehmend einfacher

Die Vorarbeiten für einen erfolgreich ausgeführten CEO Fraud sind bisweilen aufwendig und langwierig, da mitunter über Monate mit Hilfe weiterer Social-Engineering-Methoden wie Phishing sensible Informationen ausspioniert und gesammelt werden müssen. Die Täter müssen sich beispielsweise über Zuständigkeiten, Namen von Lieferanten oder sogar maßgebliche Eigenarten von Entscheidern – wie dem CEO – informieren. Derartige Informationen verwenden Kriminelle zur perfektionierten Manipulation von Unternehmensmitarbeitern und werden in der Regel durch menschliche Unachtsamkeit zugänglich gemacht. Analoge Vorsichtsmaßnahmen wie Richtlinien oder auch Checklisten geraten jedoch an ihre Grenzen, wenn eine KI mit der vermeintlich unverwechselbaren Stimme des CEO anruft. Nicht nur kommen die Betrüger wesentlich schneller ans Ziel, obendrein sind deutlich weniger aufwendige Vorbereitungen nötig. Schließlich kann die intelligente Maschine ohne Zutun der Täter lernen und anrufen. Das geschieht fast von allein und automatisch.

Wer sich ein Bild davon machen möchte, wie gut sich die menschliche Stimme inzwischen klonen lässt, sollte sich die Kampagne „Malaria Must Die“ anschauen. Weil sich weltweit alle zwei Minuten ein Kind mit der gefährlichen Malaria anstecke, hat sich Ex-Fußballprofi David Beckham bereiterklärt, mit einem eigens angefertigten Video für Aufmerksamkeit zu sorgen – und spricht scheinbar neun Sprachen fließend. Es gibt sogar einen „Behind the Scene“-Clip, der diesen Trick erklärt. Noch weiter ausgereift ist eine Technologie der neuseeländischen Firma Soulmachines. Deren Technologie soll, wie ein kleines Kind, selbständig kognitive Abläufe erlernen und emotionale Reaktionen deuten können. Die Idee: Ein möglichst menschlich wirkender Kundendienst, der trotzdem weitgehend automatisch abläuft.

Möglichst menschlich, authentisch und dazu noch autark soll sie also sein – die Maschine der Zukunft, die gleichzeitig ein großes Missbrauchspotenzial in sich trägt. Dass dieses futuristisch wirkende Angriffs-Szenario bereits Teil der Realität zu sein scheint, offenbart der erste KI-CEO-Betrug im Frühjahr 2019. Fast eine Viertelmillion Euro wurden ergaunert, weil der falsche Geschäftsführer am Telefon vom echten wohl nicht zu unterscheiden war. Zweifel bei Unternehmensmitarbeitern kamen gar nicht erst auf.

Die moderne Technik sorgt dafür, dass Mensch und Maschine besser miteinander auskommen, sei es im Privatleben, bei der Arbeit oder im Kontakt mit Unternehmen und Geschäftspartnern. Doch die im Grunde gute Idee steht allen gleichermaßen zur Verfügung und kann sich auch schnell ins Gegenteil verkehren. Das Risiko, dass Kriminelle versuchen, Unternehmen mit Hilfe einer Maschine zu manipulieren, steigt stetig an. Klassische, analoge Governance oder gar zumeist reaktive Maßnahmen allein reichen über kurz oder lang nicht mehr aus. Deshalb kommt Compliance nicht umhin digital aufzurüsten, um überhaupt mit Betrügern Schritt halten zu können und das Unternehmen sowie seine Mitarbeiter wirksam vor digitalen Cyber-Angriffen der nächsten Generation zu schützen.

Auf das Potential von KI für Banken, insbesondere im Compliance-Umfeld, sind wir bereits in einem letzten Beitrag eingegangen. Wie man Compliance effizient in Bezug auf Cyber-Angriffe wie dem Social Engineering durch KI wappnen kann, werden wir in einem unserer nächsten Beiträge vertiefen.

Für weitere Informationen kommen Sie auf uns zu!

Weitere Infos: https://www.ppi.de/banken/compliance/regtech/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Verwandte Artikel
Mehr

Teil 18: Compliance-Suiten

Die unverzichtbaren Werkzeuge zur Einhaltung regulatorischer Vorgaben Im Zuge der Aufarbeitung der Finanzkrise 2008 wurden Banken vom Gesetzgeber nach und nach weitreichende Pflichten zur Dokumentation…
Mehr

Teil 17: Data Quality

Das oft vernachlässigte RegTech-Puzzlestück für eine erfolgreiche Prozessautomatisierung Seit langer Zeit speichern Banken Daten nicht mehr nur zu reinen Dokumentations- und Aufzeichnungszwecken. Vielmehr stellen Daten…