Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Macho-Maschinen

Von Martina Mara, 16. September 2017, 00:04 Uhr

In einem Handy-Video auf Twitter sah ich kürzlich Folgendes: Ein dunkelhäutiger Mann versucht in einer öffentlichen Toilette vergeblich, einen berührungslosen Seifenspender zur Abgabe eines Seifenkleckses zu bewegen.

Immer wieder hält er seine Hand unter den Sensor, ohne Erfolg. Als er es jedoch mit einem weißen Papierhandtuch versucht, springt der Sensor sofort an, und das Gerät spuckt Seife aus.

Die Begebenheit mag beiläufig erscheinen. Trotzdem erinnert sie daran, was wir schon lange, spätestens aber seit dem Sexismus-Pamphlet eines Google-Mitarbeiters wissen: Die Tech-Industrie hat ein Diversitätsproblem. Wäre im Entwickler-Team des Seifenspenders ein einziger Mensch mit dunkler Hautfarbe gewesen, hätte man wohl früher bemerkt, dass der Infrarotsensor ausschließlich auf helle Handflächen reagiert. Doch genauso wie beispielsweise Frauen oder ältere Personen sind eben auch Nicht-Weiße überall dort, wo die Gadgets unseres Alltags entstehen, völlig unterrepräsentiert.

Was also tun für mehr Vielfalt und Chancengleichheit? Manchmal höre ich dazu den Ansatz, hier liege ein Potenzial von Computerprogrammen. Im Gegensatz zum Menschen wären Algorithmen nämlich nicht von Stereotypen beeinflusst; Interessenten für einen bestimmten Job, sagen wir, für eine Programmierer-Stelle, würden nach rein quantitativen und daher fairen Parametern bewertet. Eine hübsche Annahme, die aber leider nicht immer stimmt.

Sie stimmt dann nicht, wenn sich eine künstliche Intelligenz selbständig durch die Analyse von Texten, Bildern oder Videos Zusammenhänge und Bedeutungen beibringt. Auf Basis von Daten also, die von Menschen erzeugt wurden. Das Trend-Stichwort dazu lautet Machine Learning. Wie anfällig Programme durch diese mittlerweile häufig angewandte Methode für Vorurteile und Geschlechterklischees werden, hat die renommierte Informatikerin Joanna Bryson vergangene Woche in einem Vortrag beim Ars Electronica Festival in Linz angesprochen. Sie demonstrierte, wie eine künstliche Intelligenz männliche Namen automatisch mit Begriffen wie "Karriere" und "Mathematik" assoziiert, während Frauennamen laut Computer eher zu "Familie" und "Kunst" passen. Der Online-Übersetzer von Google, tagtäglich millionenfach im Einsatz, legt das türkische "O bir doktor", das auf Deutsch sowohl "Sie ist Ärztin" als auch "Er ist Arzt" heißen kann, konsequent männlich aus.

Conclusio: In puncto Gleichberechtigung und Diversität müssen wir uns immer noch selbst an der Nase nehmen. Denn im Gegensatz zu künstlicher Intelligenz kann menschliche Kreativität mit schlechten Traditionen brechen – auch wenn manches dafür spricht, dass diese "korrekt" sind.

Martina Mara ist Medienpsychologin und forscht am Ars Electronica Futurelab zur Mensch-Roboter-Beziehung. Twitter: @MartinaMara

mehr aus Schöne neue Welt

Ein rappender Elvis? Bitte nicht!

Estland, das digitiale Musterbeispiel

Die rasend schnelle KI-Entwicklung oder: Als wir noch über die Hände lachten

In drei Sekunden nach Absurdistan

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

5  Kommentare
5  Kommentare
Neueste zuerst Älteste zuerst Beste Bewertung
benzinverweigerer (14.603 Kommentare)
am 24.09.2017 19:00

SCHWARZE HABEN WEISSE HAND UND FUSSFLÄCHEN!
An dem KANN es also nicht gelegen haben... auch ist dem Sensor die Farbe scheissegal.
Das ist wieder so eine vermeintliche Rassismuskacke von irgendeinem ganz schlimm benachteiligtem Mitbürger...

Vieleicht hat er sich die Hände zu kalt gemacht und der Infrarotsensor ist deshalb nicht angesprungen... wie meiner im Vorzimmer... wenn ich Jacke und Haube anziehe, erkennt er mich nicht mehr... grinsen

lädt ...
melden
antworten
xerMandi (2.161 Kommentare)
am 16.09.2017 16:01

Warum der Seifenspender nicht funktioniert hat? Alterung des Sensors, Verschmutzung oder vielleicht schlicht ein Designmangel. Man muss nicht zwingend einen Schwarzen im Team haben, um einen Seifenspender konstruieren zu können, der auch für sie funktioniert.
Warum arbeiten in Entwicklungsabteilungen überwiegend weiße Männer? Weil's funktioniert. Die technischen Errungenschaften der Menschheitsgeschichte stammen ganz überwiegend von weißen Männern. All das blöde Geschwafel von Diversität und Chancengleichheit - auch von Fr. Mara - dient dem Zweck, Personen in Jobs zu bringen, die dazu nicht die notwendige Befähigung bzw. das erforderliche Interesse mitbringen.
Es wäre interessant zu erfahren, ob der Vorlesungsstoff dieser "Kolumnistin mit Professur" das triviale Niveau ihrer Kolumnen deutlich übersteigt, oder es sich um eine Quotenberufung handelt. (Vergleiche hierzu auch die kürzliche Perscheid-Karikatur inmitten des Kreuzworträtsels in den OÖN.)

lädt ...
melden
antworten
xerMandi (2.161 Kommentare)
am 16.09.2017 19:01

Korrektur: Vorlesungen ja, aber offenbar gibt es keine Professur.

lädt ...
melden
antworten
Gugelbua (31.935 Kommentare)
am 16.09.2017 12:25

der Glaube an die Technik ist genau so ein Wunschdenken wie der an Religionen zwinkern

lädt ...
melden
antworten
Eisenstein (174 Kommentare)
am 16.09.2017 07:29

Der Titel der Kolumne sollte eigentlich heißen: Vom Seifenspender zum Genderwahn.

Dem Infrarot ist das egal, es möchte bloß eine Reflexionsfläche. Zur Idee des Dunkelhäutigen, seine Hände mit der Innenseite nach oben hinzuhalten hat es vermutlich nicht gereicht.

lädt ...
melden
antworten
Aktuelle Meldungen