Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Trauen Sie Ihren Augen und Ohren - nicht

Von Barbara Eidenberger, 08. Februar 2024, 13:03 Uhr

Die Technologie, mit künstlicher Intelligenz täuschend echte Video-Avatare zu erstellen, eröffnet viele spannende Möglichkeiten. Leider auch für Kriminelle.

Mit Hilfe einer Sprachlern-App versuche ich gerade meine Italienisch-Kenntnisse von Minimal-Niveau auf Zumindest-Urlaubsniveau zu heben. Wie erfolgreich ich dabei bin, darüber lässt sich streiten. Zumindest kann ich Ihnen schon auf Italienisch den wichtigen Satz „Ein Kaninchen ist gelb“ mitteilen.

Trotzdem habe ich es geschafft, dass einer Kollegin und einem Kollegen angesichts meiner Italienisch-Kenntnisse der Mund vor Staunen offenblieb. Kurz habe ich mich in der Bewunderung gesonnt, dann habe ich das Rätsel aufgelöst. Die Person, die in dem Video fließend Italienisch spricht, aussieht, wie ich und klingt, wie ich - das bin ich nicht. Es ist mein mit einer KI-Software generierter Avatar.

Der Aufwand, diese KI-Version von mir zu erstellen, war denkbar gering. Alles, was notwendig ist, ist ein (kostenpflichtiges) Programm, ein zweiminütiges echtes Video, einiges an Rechenleistung und schon kann ich meinen Avatar in jeder Sprache alles sagen lassen, was ich möchte.

Ein Video - viele Sprachen

Was auf den ersten Blick durchaus unheimlich wirkt, hat viele spannende Anwendungsmöglichkeiten. Informationen wären mit nur wenigen Klicks in vielen Sprachen verfügbar, Erklärvideos könnten einfach übersetzt werden, Firmen mit internationalen Kunden können Produktvideos mit geringem Aufwand für die jeweilige Zielgruppe erstellen.

Aber es gibt natürlich auch die andere Seite. Die Anwendungsmöglichkeiten sind vielfältig, die kriminellen Nutzungsmöglichkeiten quasi unendlich. Und wie so oft sind Kriminelle in technischen Belangen unglaublich fit und anpassungsfähig. Diese Woche wurde ein Fall aus Hongkong bekannt, der die Dimensionen zeigt. Ein Angestellter wurde in einer Videokonferenz voller KI-generierter Teilnehmer dazu gebracht, den Betrügern 24 Millionen Euro zu überweisen. Die Teilnehmer der Videokonferenz waren Deepfakes (realistisch wirkende Medieninhalte, die durch Techniken der künstlichen Intelligenz abgeändert, erzeugt oder verfälscht wurden) von Personen aus dem Konzern. Der Angestellte entdeckte erst im späteren persönlichen Gespräch mit seinem Chef, dass er Betrügern aufgesessen war. Das ist nicht der erste großangelegte Deepfake-Betrug - und es wird bestimmt nicht der letzte sein.

Wer weiß, wie häufig Betrugsanrufe oder -mails zum Erfolg führen, kann sich vorstellen, wie leicht mit dieser Technologie Menschen in die Irre geführt werden können. Der Ruf nach Verboten geht ins Leere: Verboten ist das alles jetzt schon. Die Frage ist aber, ob die Möglichkeiten, dieser Betrüger habhaft zu werden, ausreichen. Die Frage ist auch ob und wie das Bewusstsein in der Bevölkerung geschärft werden kann, welche technischen Kniffe und Tricks Betrüger anwenden.

Und eine Frage sollte uns nachhaltig zu denken geben: Was macht es mit einer Gesellschaft, wenn man den eigenen Augen und Ohren nicht mehr trauen kann?

mehr aus Schöne neue Welt

Was Frauen (nicht) wollen

In drei Sekunden nach Absurdistan

Das Ende der Suche, wie wir sie kannten

Ein rappender Elvis? Bitte nicht!

Autorin
Barbara Eidenberger
Leiterin Online/Digitale Medien und Oberösterreich/Regional
Barbara Eidenberger
Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

0  Kommentare
0  Kommentare
Die Kommentarfunktion steht von 22 bis 6 Uhr nicht zur Verfügung.
Zu diesem Thema wurden noch keine Kommentare geschrieben.
Neueste zuerst Älteste zuerst Beste Bewertung
Aktuelle Meldungen