Und täglich grüßt erneut ein Fakt … ähm ich meine: ein neuer Fake!

Das letzte Mal haben wir festgestellt, dass der Mensch mit dem Einsatz von KI zwar bedeutend schneller Entscheidungen treffen und komplexe Sachverhalte gezielter lösen kann – aber eben intelligent im herkömmlichen Sinne ist KI deswegen noch nicht. Oder doch? Und dann war da ja noch die Frage nach intelligenten Maschinen die womöglich bereits telefonieren können.

#Fake Fakt Future

Wie ergeht es euch eigentlich mit der sich immer mehr und mehr verzerrenden Grenze zwischen Fiktion und Realität? Ich muss zugeben, dass die Differenzierung zwischen Fake und Fakt heutzutage zunehmend komplexer wird. Wie ich darauf komme? Erst im Jahr 2018 hatte der Konzern Alphabet (zu dem Google gehört) verlautbaren lassen, dass seine KI-Innovation namens Google Duplex mit Hilfe von NLP (Natural Language Processing) im Namen des Nutzers Anrufe tätigen und Termine planen könne. Anders gesagt, eine Maschine soll – ohne mein wesentliches Zutun – selbstständig beim Restaurant, Friseur oder Arzt anrufen und einen Termin in meinem Namen organisieren können. Bemerkenswert ist, dass Google bereits seine Maps-Einträge auf diesem Wege aktuell hält. Eigenen Angaben zufolge hat die KI-Telefonie seit Beginn der COVID-Pandemie schon über Dreimillionen Updates in acht Ländern vorgenommen. Genial! Damit aber nicht genug! Bereits 2017 hatte das kanadische Startup Lyrebird verkündet, KI zu nutzen, um einen Stimmenklon zu erstellen. Und das in kürzester Zeit: Es reichen bereits weniger als fünf Minuten Sprachaufnahme – was gerade einmal 30 bis 60 Sätzen entspricht – und man erhält einen recht adäquaten Klon seiner persönlichen Stimme.

#Kann man den eigenen Augen und Ohren noch trauen?

Immer noch nicht futuristisch genug? Okay, dann weiter … Das chinesische Äquivalent zu Google, Baidu, nutzt KI unter anderem in seiner Anwendung Deep Voice. Auch dieses Programm soll im Stande sein, mit bereits geringem Audiomaterial eine Stimme anwendungstauglich und täuschend echt zu klonen. Im Ergebnis können diese digitalen Stimmen-Fakes automatisiert jedweden Text wiedergeben, ohne dass diese vorher real gesprochen worden sein müssten. In gewisser Weise praktisch, wenn man zum Beispiel an die Erstellung von Audiobüchern denkt. Dies wäre in Zukunft ohne Aufnahmestudio oder Autor möglich, da lediglich das Buch in digitaler Form und wenige Minuten der Stimme des Autors ausreichen. Andererseits hat jeder von euch schon mindestens ein sogenanntes Fake-Foto oder sogar Fake-Video gesehen. Solche für das bloße menschliche Auge täuschend echt wirkende Bilder oder eben Bildsequenzen (in Echtzeit!) existieren zuhauf im Internet und stellen jeden Laien vor enorme Herausforderungen, Fälschungen auch als solche zu enttarnen.

#Sorgenfrei in die Zukunft oder doch Grund zur Sorge? 

Ihr fragt euch gerade „Und was hat das jetzt alles mit Banking zu tun?!“. Also Vorhang auf für die Transition-Szene. Diese spielt im Frühjahr 2019 und könnte durchaus auch aus einem Science-Fiction-Drehbuch stammen. In der Hauptrolle: Next-Gen-Social-Engineering. Die vorweg erwähnte KI-Software Lyrebird ermöglichte es Kriminellen, die nächste Generation des Human-Hackings einzuläuten. Fast eine Viertelmillion Euro wurden ergaunert, weil der falsche Geschäftsführer am Telefon vom Echten wohl nicht zu unterscheiden war. Dank der überzeugenden Fake-Stimme erhielten die Gauner prompt ihren Wunschbetrag per Überweisung. Der offenbar erste CEO-Betrug (auch bekannt als Fake-President oder BEC-Fraud) der Geschichte durch eine KI-Stimmenimitation!

#Fight Fire With Fire

Es ist unbestritten, zu was KI fähig ist. Und auch, dass kriminelle Angreifer zügig die vorschreitende Technik adaptieren und im Zusammenhang mit Social Engineering ein mögliches Aufkommen von Zweifel bei Unternehmensmitarbeitern in einer solch speziellen Situation verhindert. Selbst Internetgiganten wie Google und Twitter waren in diesem Jahr schon Opfer von Social Engineering. Diese Erkenntnis bringt mich zum Grübeln, inwiefern analoge Präventionsmaßnahmen heutzutage noch zeitgemäß sind. Sensibilisierung durch Plakate oder Informationskampagnen im Intranet sind ganz klar zu hinterfragen. Aber wie sich effizient davor schützen, Opfer einer CEO-Attacke durch KI zu werden? Die Antwort ist eindeutig: Bekämpfe Feuer mit Feuer. Oder, anders gesagt: Ihr kommt nicht umhin, euch selbst zu KI-fizieren … also euch mit Künstlicher Intelligenz, ihren Potenzialen sowie Lösungsmöglichkeiten auseinanderzusetzen und schlussendlich diese auch tatsächlich zu nutzen.

#Prädikat: Faszinierend

In puncto Cybercrime haben wir bei PPI die KI-Fizierung genutzt und einen ersten Prototyp zur wirksamen und echten Prävention von zum Beispiel Social Engineering entwickelt. Von Continues-Smart-Learning bis hin zur hellseherischen Predictive Analytics in Echtzeit loten wir alle KI-Potenziale aus. In unserem jüngsten RegTech-Beitrag haben wir diesen zukunftsweisenden Pfad unbegrenzter Möglichkeiten beschritten und für euch ein Stück weit detaillierter ausgeführt. Schaut doch mal rein! Und wer es vor lauter Spannung nicht abwarten kann und mehr erfahren möchte, kommt einfach direkt auf mich zu. In diesem Sinne zitiere ich zum Schluss Captain Kirk mit den Worten „Ende der Ansprache, an die Arbeit“!
Euer Thomas

1 comment
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

7  +  1  =  

Verwandte Artikel