Lade Inhalte...

Schöne neue Welt

Fake News, die nächste Generation

Von Martina Mara   23. Juni 2018

Erinnern Sie sich an das berühmt-berüchtigte "Grab ’em by the pussy"-Video, in dem Donald Trump prahlte, Frauen ungestraft an die Genitalien greifen zu können?

Es war einer der Aufreger im US-Präsidentschaftswahlkampf 2016 (und kostete Trump bekanntlich nicht den Sieg). Etwa ein Jahr nach gewonnener Wahl sprach der nunmehrige Präsident das Video in absurder Eigeninitiative wieder an: Obwohl er sich ursprünglich wiederholt dafür entschuldigt hatte, nannte Trump es nachträglich einen "Fake". Die Stimme, die man im Video höre, sei gar nicht die seine, meinte er plötzlich. Der Witz dabei: Wenngleich ihm den patscherten Spin nicht einmal wahre Fanboys so richtig abnehmen konnten, stieß er damit etwas Richtiges an. Fake News, die bis dato fast ausschließlich als manipulative Falschnachrichten in Textform diskutiert wurden, werden mit großer Sicherheit bald auch als gefakte Tonaufzeichnungen und Videos daherkommen.

Möglich wird das durch künstliche Intelligenz. Google zum Beispiel hat erst kürzlich einen KI-Assistenten vorgestellt, der mit überzeugend menschengleicher Stimme telefonisch einen Tisch im Restaurant reserviert. Es wird nicht lange dauern, bis jemand die Technologie zur Nachahmung realer Menschen nutzt. Auch prototypische Software zur Manipulation gefilmter Personen existiert bereits. Unter futureoffakenews.com findet sich ein Videostatement Barack Obamas, das es so nie gegeben hat. Die Worte, die er spricht, wurden ihm nachträglich in den Mund gelegt und eine KI hat die passenden Mundbewegungen dazu berechnet. In der Amateurversion stehen ähnliche Programme heute schon für jedermann in App-Stores bereit. Die Resultate sind freilich noch nicht perfekt, und wenn User damit etwa ihr eigenes Gesicht auf Sharon Stones Körper in "Basic Instinct" montieren, kommen dabei auch kaum gefährliche Fake News heraus. Trotzdem lässt sich leicht erahnen, was in Zukunft möglich sein wird. Ein realistischer Fake Kim Jong-uns, der einen Raketenanschlag per Video ankündigt, wäre weit weniger lustig.

Wie können wir uns also vorbereiten auf eine digitale Welt, in der es immer noch schwieriger wird, echt von unecht zu unterscheiden? Es braucht dafür eine Transparenzpflicht für manipulierte Inhalte. Es braucht auch smarte Algorithmen, die Bild-, Ton- und Video-Fakes mit deren eigenen Waffen als solche aufdecken. Und es braucht, wahrscheinlich am allermeisten, eine gezielte Stärkung der Informationskompetenz junger Menschen, die in solch eine Zukunft der Fake News hineinwachsen. Sie müssen wissen, welchen Quellen sie vertrauen können. Schön wäre es, wenn professionellen Medien diese Vertrauensrolle wieder stärker zugeschrieben würde.

 

Martina Mara ist Professorin für Roboterpsychologie an der JKU. Twitter: @MartinaMara. E-Mail: mara@nachrichten.at

Lädt
turned_in

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

turned_in

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

turned_in

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

turned_in

Fügen Sie das Thema zu Ihren Themen hinzu.

mehr aus Schöne neue Welt

4  Kommentare expand_more 4  Kommentare expand_less