Trauen Sie Ihren Augen und Ohren - nicht
Die Technologie, mit künstlicher Intelligenz täuschend echte Video-Avatare zu erstellen, eröffnet viele spannende Möglichkeiten. Leider auch für Kriminelle.
Mit Hilfe einer Sprachlern-App versuche ich gerade meine Italienisch-Kenntnisse von Minimal-Niveau auf Zumindest-Urlaubsniveau zu heben. Wie erfolgreich ich dabei bin, darüber lässt sich streiten. Zumindest kann ich Ihnen schon auf Italienisch den wichtigen Satz „Ein Kaninchen ist gelb“ mitteilen.
Trotzdem habe ich es geschafft, dass einer Kollegin und einem Kollegen angesichts meiner Italienisch-Kenntnisse der Mund vor Staunen offenblieb. Kurz habe ich mich in der Bewunderung gesonnt, dann habe ich das Rätsel aufgelöst. Die Person, die in dem Video fließend Italienisch spricht, aussieht, wie ich und klingt, wie ich - das bin ich nicht. Es ist mein mit einer KI-Software generierter Avatar.
Der Aufwand, diese KI-Version von mir zu erstellen, war denkbar gering. Alles, was notwendig ist, ist ein (kostenpflichtiges) Programm, ein zweiminütiges echtes Video, einiges an Rechenleistung und schon kann ich meinen Avatar in jeder Sprache alles sagen lassen, was ich möchte.
Ein Video - viele Sprachen
Was auf den ersten Blick durchaus unheimlich wirkt, hat viele spannende Anwendungsmöglichkeiten. Informationen wären mit nur wenigen Klicks in vielen Sprachen verfügbar, Erklärvideos könnten einfach übersetzt werden, Firmen mit internationalen Kunden können Produktvideos mit geringem Aufwand für die jeweilige Zielgruppe erstellen.
- Mehr zum Thema: Wie künstliche Intelligenz den Frontalunterricht optimieren solI
Aber es gibt natürlich auch die andere Seite. Die Anwendungsmöglichkeiten sind vielfältig, die kriminellen Nutzungsmöglichkeiten quasi unendlich. Und wie so oft sind Kriminelle in technischen Belangen unglaublich fit und anpassungsfähig. Diese Woche wurde ein Fall aus Hongkong bekannt, der die Dimensionen zeigt. Ein Angestellter wurde in einer Videokonferenz voller KI-generierter Teilnehmer dazu gebracht, den Betrügern 24 Millionen Euro zu überweisen. Die Teilnehmer der Videokonferenz waren Deepfakes (realistisch wirkende Medieninhalte, die durch Techniken der künstlichen Intelligenz abgeändert, erzeugt oder verfälscht wurden) von Personen aus dem Konzern. Der Angestellte entdeckte erst im späteren persönlichen Gespräch mit seinem Chef, dass er Betrügern aufgesessen war. Das ist nicht der erste großangelegte Deepfake-Betrug - und es wird bestimmt nicht der letzte sein.
- Mehr zum Thema: 70 Prozent der Betrugsfälle werden im Internet verübt
Wer weiß, wie häufig Betrugsanrufe oder -mails zum Erfolg führen, kann sich vorstellen, wie leicht mit dieser Technologie Menschen in die Irre geführt werden können. Der Ruf nach Verboten geht ins Leere: Verboten ist das alles jetzt schon. Die Frage ist aber, ob die Möglichkeiten, dieser Betrüger habhaft zu werden, ausreichen. Die Frage ist auch ob und wie das Bewusstsein in der Bevölkerung geschärft werden kann, welche technischen Kniffe und Tricks Betrüger anwenden.
Und eine Frage sollte uns nachhaltig zu denken geben: Was macht es mit einer Gesellschaft, wenn man den eigenen Augen und Ohren nicht mehr trauen kann?