Gepixelt: CSI-Effekt wird Realität
MOUNTAIN VIEW. Google-Brain-Algorithmus lässt unscharfe Bilder erkennbar werden.
Googles Entwicklungsabteilung "Google Brain" hat das geschaffen, was künftig die Arbeit vieler Kriminalisten maßgeblich erleichtern soll: Einen Algorithmus, der versucht, aus acht mal acht Pixel großen Bildern mit Gesichtern ein 32 mal 32 Pixel großes Bild zu erraten. Und "erraten" dürfte in diesem Fall passend gewählt sein. Doch alles von Anfang an.
Zwei "neuronale Netzwerke"
Um die Gesichter auf den unscharfen Bildern erkenntlich zu machen, kommen zwei sogenannte "neuronale Netzwerke" zum Einsatz. Das erste vergleicht die 64 Pixel kleinen Bilder mit ebenso kleinen Aufnahmen und sucht nach Übereinstimmungen. So soll herausgefunden werden, was die Ausgangsdatei zeigt – sei es nun zum Beispiel ein Baum oder eben ein Gesicht.
Ist dann einmal klar, was darauf zu sehen ist, wird das Bild in das zweite Netzwerk, welches im Vorhinein mit hochauflösendem Datenmaterial gefüttert worden ist, gespeist. Das Netzwerk versucht dann, der 64-Bildpunkte-Aufnahme so viele Pixel hinzuzufügen, dass schlussendlich ein 1024 Pixel großes und qualitativ hochwertiges Bild entsteht.
Doch das Endergebnis dieses ausgeklügelten Prozesses ist keineswegs optimal: Der Algorithmus ist nämlich nicht in der Lage, die Originalbilder aus den eingespeisten Daten zu rekonstruieren und hat demnach großen Interpretationsspielraum. Die 100-prozentige Erfolgsgarantie der Rekonstruktion ist somit nicht gegeben.
Großer Informationsverlust
Der Grund dafür ist aber denkbar einfach: Wird das hochauflösende Bild verpixelt, muss es zu allererst auf 32 mal 32 Pixel und anschließend auf acht mal acht Bildpunkte verkleinert werden. Bei dieser Prozedur gehen wichtige Informationen verloren.