Macho-Maschinen

Von Martina Mara   16.September 2017

Immer wieder hält er seine Hand unter den Sensor, ohne Erfolg. Als er es jedoch mit einem weißen Papierhandtuch versucht, springt der Sensor sofort an, und das Gerät spuckt Seife aus.

Die Begebenheit mag beiläufig erscheinen. Trotzdem erinnert sie daran, was wir schon lange, spätestens aber seit dem Sexismus-Pamphlet eines Google-Mitarbeiters wissen: Die Tech-Industrie hat ein Diversitätsproblem. Wäre im Entwickler-Team des Seifenspenders ein einziger Mensch mit dunkler Hautfarbe gewesen, hätte man wohl früher bemerkt, dass der Infrarotsensor ausschließlich auf helle Handflächen reagiert. Doch genauso wie beispielsweise Frauen oder ältere Personen sind eben auch Nicht-Weiße überall dort, wo die Gadgets unseres Alltags entstehen, völlig unterrepräsentiert.

Was also tun für mehr Vielfalt und Chancengleichheit? Manchmal höre ich dazu den Ansatz, hier liege ein Potenzial von Computerprogrammen. Im Gegensatz zum Menschen wären Algorithmen nämlich nicht von Stereotypen beeinflusst; Interessenten für einen bestimmten Job, sagen wir, für eine Programmierer-Stelle, würden nach rein quantitativen und daher fairen Parametern bewertet. Eine hübsche Annahme, die aber leider nicht immer stimmt.

Sie stimmt dann nicht, wenn sich eine künstliche Intelligenz selbständig durch die Analyse von Texten, Bildern oder Videos Zusammenhänge und Bedeutungen beibringt. Auf Basis von Daten also, die von Menschen erzeugt wurden. Das Trend-Stichwort dazu lautet Machine Learning. Wie anfällig Programme durch diese mittlerweile häufig angewandte Methode für Vorurteile und Geschlechterklischees werden, hat die renommierte Informatikerin Joanna Bryson vergangene Woche in einem Vortrag beim Ars Electronica Festival in Linz angesprochen. Sie demonstrierte, wie eine künstliche Intelligenz männliche Namen automatisch mit Begriffen wie "Karriere" und "Mathematik" assoziiert, während Frauennamen laut Computer eher zu "Familie" und "Kunst" passen. Der Online-Übersetzer von Google, tagtäglich millionenfach im Einsatz, legt das türkische "O bir doktor", das auf Deutsch sowohl "Sie ist Ärztin" als auch "Er ist Arzt" heißen kann, konsequent männlich aus.

Conclusio: In puncto Gleichberechtigung und Diversität müssen wir uns immer noch selbst an der Nase nehmen. Denn im Gegensatz zu künstlicher Intelligenz kann menschliche Kreativität mit schlechten Traditionen brechen – auch wenn manches dafür spricht, dass diese "korrekt" sind.

Martina Mara ist Medienpsychologin und forscht am Ars Electronica Futurelab zur Mensch-Roboter-Beziehung. Twitter: @MartinaMara