Frankenstein selbst ist das wahre Monster

Von Martina Mara   30.August 2016

Als Bösewicht trat eine Überwachungssoftware namens "Bluesky" auf, die ein intentionales Selbst entwickelte und am Ende sogar aus Eigeninteresse digitales Beweismaterial manipulierte. Biologische gegen künstliche Intelligenz: altes Thema, im sonntäglichen Krimibrauchtum aber neu. Bereits während des "Tatorts" wurde auf Twitter hitzig kommentiert: "Ein Ausblick darauf, was uns bald bevorsteht", "verstörend" und "gruselig", meinten einige User. Doch hat das Drehbuch tatsächlich realweltliche Substanz? Werden uns Computerprogramme schon bald austricksen, wo es nur geht?

Man darf erleichtert aufatmen, denn das Gros internationaler Experten stuft eine derartige Vorstellung als völligen Nonsens ein. Wirkliche Intelligenz, die auch Kreativität und Motivation inkludiert, ist aus heutiger Sicht einfach nicht künstlich herzustellen. Wir wissen aktuell ja noch nicht einmal, wie unser eigenes Denken im Detail funktioniert.

Was man im Gegensatz dazu aber sehr wohl herstellen kann, ist eine Maschine, die sich durch Zugriff auf große Datenmengen selbst optimiert und dadurch auch menschliches Verhalten prognostizieren kann. "Big Data" lautet das Buzzword dazu. Man füttere ein Programm mit immer mehr Aufzeichnungen von Würstelstand-Dialogen zwischen drei und fünf Uhr Früh. Irgendwann ergibt sich eine Sättigung wahrscheinlicher Gesprächsverläufe, und durch Abgleich mit dem Material in der Datenbank kann die Maschine immer besser voraussehen, welchen Dialog ein neuer Kunde an der Budel führen wird.

Die Maschine lernt. Persönliches Begehren nach einem Burenhäutl wird sie deswegen aber genauso wenig entwickeln wie die Idee, den Würstelstand und/oder die Weltherrschaft zu übernehmen. Nicht ganz so sicher bin ich mir da zum Teil bei jenen Institutionen, die hinter solchen Systemen stecken. Sie sind unter Umständen mehr "Bluesky", als es der Computer selbst je sein könnte. Die Firma Faception hat beispielsweise eine Software präsentiert, die angeblich allein durch Foto- oder Videoanalyse eines menschlichen Gesichts mit 80-prozentiger Trefferquote bestimmen kann, ob eine Person hochintelligent, pädophil oder etwa ein zukünftiger Terrorist sei. Das erinnert nicht nur an "Minority Report", das erinnert sogar an dunkle Zeiten der Physiognomik. Es fällt leicht, sich den Missbrauch eines solchen Programms vorzustellen. Wenn man angesichts neuer Entwicklungen im Bereich von Machine Learning und Computerintelligenz also Angst haben möchte, dann ist diese wohl eher Frankenstein gegenüber angebracht als seinem – gar nicht so gescheiten – Monster.

 

Martina Mara ist Medienpsychologin und forscht am Ars Electronica Futurelab zu Mensch-Roboter-Beziehungen.