Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

Fake News, die nächste Generation

Von Martina Mara   23.Juni 2018

Es war einer der Aufreger im US-Präsidentschaftswahlkampf 2016 (und kostete Trump bekanntlich nicht den Sieg). Etwa ein Jahr nach gewonnener Wahl sprach der nunmehrige Präsident das Video in absurder Eigeninitiative wieder an: Obwohl er sich ursprünglich wiederholt dafür entschuldigt hatte, nannte Trump es nachträglich einen "Fake". Die Stimme, die man im Video höre, sei gar nicht die seine, meinte er plötzlich. Der Witz dabei: Wenngleich ihm den patscherten Spin nicht einmal wahre Fanboys so richtig abnehmen konnten, stieß er damit etwas Richtiges an. Fake News, die bis dato fast ausschließlich als manipulative Falschnachrichten in Textform diskutiert wurden, werden mit großer Sicherheit bald auch als gefakte Tonaufzeichnungen und Videos daherkommen.

Möglich wird das durch künstliche Intelligenz. Google zum Beispiel hat erst kürzlich einen KI-Assistenten vorgestellt, der mit überzeugend menschengleicher Stimme telefonisch einen Tisch im Restaurant reserviert. Es wird nicht lange dauern, bis jemand die Technologie zur Nachahmung realer Menschen nutzt. Auch prototypische Software zur Manipulation gefilmter Personen existiert bereits. Unter futureoffakenews.com findet sich ein Videostatement Barack Obamas, das es so nie gegeben hat. Die Worte, die er spricht, wurden ihm nachträglich in den Mund gelegt und eine KI hat die passenden Mundbewegungen dazu berechnet. In der Amateurversion stehen ähnliche Programme heute schon für jedermann in App-Stores bereit. Die Resultate sind freilich noch nicht perfekt, und wenn User damit etwa ihr eigenes Gesicht auf Sharon Stones Körper in "Basic Instinct" montieren, kommen dabei auch kaum gefährliche Fake News heraus. Trotzdem lässt sich leicht erahnen, was in Zukunft möglich sein wird. Ein realistischer Fake Kim Jong-uns, der einen Raketenanschlag per Video ankündigt, wäre weit weniger lustig.

Wie können wir uns also vorbereiten auf eine digitale Welt, in der es immer noch schwieriger wird, echt von unecht zu unterscheiden? Es braucht dafür eine Transparenzpflicht für manipulierte Inhalte. Es braucht auch smarte Algorithmen, die Bild-, Ton- und Video-Fakes mit deren eigenen Waffen als solche aufdecken. Und es braucht, wahrscheinlich am allermeisten, eine gezielte Stärkung der Informationskompetenz junger Menschen, die in solch eine Zukunft der Fake News hineinwachsen. Sie müssen wissen, welchen Quellen sie vertrauen können. Schön wäre es, wenn professionellen Medien diese Vertrauensrolle wieder stärker zugeschrieben würde.

 

Martina Mara ist Professorin für Roboterpsychologie an der JKU. Twitter: @MartinaMara. E-Mail: mara@nachrichten.at

copyright  2024
29. März 2024