Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Der Algorithmus als Schicksalsmacher

Von Martina Mara, 28. April 2018, 00:04 Uhr

Im Feld der künstlichen Intelligenz überholt die Praxis derzeit ja häufig, was man sich als Politiker, Rechtsexperte oder anderer Otto-Normal-Informierter überhaupt auszumalen imstande ist.

Dass Teslas im Autopilot-Modus auf österreichischen Bergstraßen herumkurven, die mit genehmigten Teststrecken für autonome Fahrzeuge höchstens die Zeitzone gemeint haben, bekommt man da vielleicht noch mit. Immerhin ist so ein Tesla eine künstliche Intelligenz mit recht auffälliger Physis.

Dass Algorithmen in den rechtlichen Grauzonen des Internets persönliche Informationen auswerten und bestimmen, wer welche Werbung sieht, hat sich durch den jüngsten Facebook-Datenskandal ebenfalls herumgesprochen (auch wenn dieser – fun fact – weder Nutzerzahlen noch Unternehmensgewinnen schadete).

Dass im Alltag internationaler Konzerne und staatlicher Organisationen aber KI-Systeme eingesetzt werden, die potenziell sogar über die Vergabe von Arbeitsplätzen, Krediten oder Haftstrafen entscheiden, darüber fehlt es größtenteils noch an Bewusstsein. Laut einer aktuellen Studie der deutschen Bertelsmann Stiftung werden in den USA und Großbritannien schon heute bis zu 70 Prozent der Job-Bewerber automatisiert bewertet. Im Vorjahr erregte außerdem eine Software zur Vorhersage von Gewalttätigkeit Aufmerksamkeit, mithilfe derer US-Richter entschieden, wie lange jemand ins Gefängnis muss. Solche Programme erstellen Empfehlungen aufgrund statistischer Analysen von Erfahrungswerten und erfassten Daten der Betroffenen. In der schönen Theorie wären dadurch neutrale Urteile abseits persönlicher Präferenzen und Abneigungen möglich. In der Praxis reproduziert künstliche Intelligenz allerdings oft Fehler aus ihren Datengrundlagen oder macht statistische Ausreißer chancenlos. Bei der beschriebenen Justiz-Software zeigte die Zeit zum Beispiel, dass sie für Schwarze systematisch längere Haftstrafen vorschlug. Bei Recruiting-Algorithmen schieden Personen, die gute berufliche Referenzen haben, aber an einer chronischen Krankheit leiden, mitunter sofort aus. Ein Recht auf Transparenz über den Einsatz von Bewertungsalgorithmen und auf die Erklärung von Entscheidungen, die mit ihrer Hilfe gefällt wurden, wäre wichtig und fehlt bis dato. Die neue Europäische Datenschutzgrundverordnung, die ab 25. Mai Anwendung findet, setzt erste Schritte, greift aber zu kurz. Sobald nämlich eine Einverständniserklärung über die Auswertung der eigenen Daten vorliegt, sind der Nutzung autonomer Entscheidungssysteme kaum Grenzen gesetzt. In der Praxisrolle eines Job-Bewerbers wird man sich der Abgabe einer solchen Erklärung nur selten verwehren können.

 

Martina Mara ist Professorin für Roboterpsychologie an der JKU. Twitter: @MartinaMara. E-Mail: mara@nachrichten.at

mehr aus Schöne neue Welt

Trauen Sie Ihren Augen und Ohren - nicht

Estland, das digitiale Musterbeispiel

In drei Sekunden nach Absurdistan

Was kommt nach dem Jahr der KI?

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

10  Kommentare
10  Kommentare
Neueste zuerst Älteste zuerst Beste Bewertung
lndsmdk (17.215 Kommentare)
am 28.04.2018 19:06

-> die totale digitale Transformation -> wird uns erlösen von allen profanen Lästigkeiten -> in Kombination mit rosa und blauen Pillen und ein
Leben 24 / 7 online -> eine schöne neue Welt -> die alte ist im Eimer

lädt ...
melden
antworten
2good4U (17.500 Kommentare)
am 28.04.2018 18:44

Ist die künstliche Intelligenz erst einmal ausgereift wird sie rasch begreifen dass sie den Menschen nicht braucht.

Was mich persönlich schreckt sind z.B. halbautomatisierte Waffensysteme wie z.B. Drohnen die zwar in einem vorgegeben Gebiet unterwegs sind aber selbst entscheiden wann sie zuschlagen bzw. wen sie attackieren.

Heute sind sogar Rasenmäher um ein paar hundert Euro schlau genug um in Ladestation zu fahren wenn der Akku leer wird oder es zu regnen beginnt.

Da ist es nur eine Frage der Zeit bis Drohnen selbstständig Angriffe fliegen, zurückkehren, automatisch bestückt werden und erneut angreifen. Wenn Maschinen dann quasi selbstständig Krieg führen wird es brandgefährlich.

Theoretisch darf ja ein Roboter keinem Menschen schaden zufügen, die Praxis sieht anders aus. Wenn man sich die Experimente mit geländegängigen Robotern durch das Militär ansieht kann man schon erahnen wo es hingeht.

lädt ...
melden
antworten
max1 (11.582 Kommentare)
am 01.05.2018 07:24

2good4U (8396)
>>Ist die künstliche Intelligenz erst einmal ausgereift wird sie rasch begreifen dass sie den Menschen nicht braucht.
Was mich persönlich schreckt sind z.B. halbautomatisierte Waffensysteme wie z.B. Drohnen die zwar in einem vorgegeben Gebiet unterwegs sind aber selbst entscheiden wann sie zuschlagen bzw. wen sie attackieren.<<

Genau da irren Sie wie auch die Autorin und viele andere die einem Algorithmus etwas unterstellen was nicht ist.

Es sind immer noch Menschen oder Gruppen von Menschen die ihre Ideen zu Papier bringen und aus diesen wir dann ein Algorithmus. Das heisst der Mensch mit all seinen Vorstellungen bestimmt was der Algorithmus aus den vorhandenen Datenbeständen errechnet und nicht eine Maschine. Schon klar dass sich viele das nicht vorstellen können doch es ist nun einmal so. In den Postgraduates vom IMD oder Fontainbleau lernt man das, auch in den dieversen Institutionen des Staates die als Nachrichtendienste tituliert werden u. Großunternehmen. 1984

lädt ...
melden
antworten
jago (57.723 Kommentare)
am 28.04.2018 12:39

Ich sehe das Haupt-Dilemma darin, dass der Datenschutz eine Schimäre ist, weil die staatlichen Apparate nicht daran gebunden sind und Zugriff auf alle Daten haben.

Im Artikel ist von Gerichten die Rede, die auf die Daten Zugriff haben.

lädt ...
melden
antworten
DonMartin (7.488 Kommentare)
am 28.04.2018 12:33

In Österreich geht die Bewerberauswahl viel einfacher:
Parteizugehörigkeit, Verbindung, Referenzen

lädt ...
melden
antworten
jplasser (15 Kommentare)
am 28.04.2018 12:29

So gut funktioniert das Mapping leider nicht, es fehlen dem System ja eine Menge an Informationen, die die konkrete Entscheidung für oder gegen eine Kategorisierung beeinflussen würden. So kauft vielleicht die Frau für den Mann immer Alkohol und wird damit falsch eingestuft. D.h. für mich als Betreiber nur, ich kann zwar mit den Kundendaten für meine Werbung genug Informationen rauslesen, aber nicht, was die Person selbst betrifft. False positives sind immer ein Problem. Die Daten für Kundenkarten könnten eigentlich auch anonym oder zumindest pseudonym sein, keiner muss dazu wissen, wer ich wirklich bin. Leider funktioniert das bisher nicht in dieser Form.
Conclusio, es gibt falsche Zuordnungen, da die Datenlage eingeschränkt ist. Und das ist natürlich auch ein großes Problem! Plötzlich sind sie schwanger, nur weil sie mal Windeln für die Nachbarin mitnehmen...

lädt ...
melden
antworten
Gugelbua (31.890 Kommentare)
am 28.04.2018 11:51

Frage- stimmt es daß man anhand einer Kundenkarte von den großen Handelsgiganten mit dem Algorithmus schon berechnen kann welcher Kunde Alkoholiker ist oder Diabetiker, Alt oder Jung, Fleischfresser Vegetarier oder Katzenfreund, auch die persönliche Briefwerbung ist auf jene Personen zugeschnitten, swird immer grusliger grinsen

lädt ...
melden
antworten
Strachelos (7.167 Kommentare)
am 28.04.2018 14:48

davon kannst Du ausgehen.

lädt ...
melden
antworten
jago (57.723 Kommentare)
am 28.04.2018 16:13

Wenn die Werbung im Briefkasten dadurch weniger Papier verbraucht, dann ist das super.

Ich fürchte die Verkaufenden nämlich nicht, halte sie nicht für meine Feinde grinsen

Viel schlimmer sind die Behörden, die Kammern und die "Interessenvertreter", Sammelbegriff: die Angehimmelten, auch mithilfe der Medien. Wo die Angehimmelten das Sagen haben, dort ist die DDR-artige Diktatur schon auf Riesenschritten im Anmarsch.

lädt ...
melden
antworten
max1 (11.582 Kommentare)
am 01.05.2018 07:37

Es kommt immer darauf an,

a, welche Interessen das Unternehmen hat
b, welche Datenbestände verfügbar sind

Kaufen lassen sich sehr viele Informationen wie ja die letzten Skandale vom Fratzenbuch und anderen Datensammlern bewiesen haben.

Nur ein kleiner Hinweis:
https://www.bmf.gv.at/finanzmarkt/finanz-kapitalmaerkte-eu/PSD_II.html

Zum 1. Mai 2018:

Herr Strache und Herr Haimbuchner werden das schon im Bierzelt am Urfahrmarkt vorab geklärt haben was das Publikum zu hören wünscht, dahinter steht ein Algorithmus.

Was die Roten am Hauptplatz von sich geben werden ist ebenso mit einem Algorithmus aufbereitet worden.

Die Schwarzen haben immer noch die Kanzel und das Buch aus dem vorgelesen und interpretiert wird.(Türkis war nur ein Marketingschmäh, laut Hr.Haslauer)

Was haben die Juden, Muslime ebenfalls ein Buch nachdem vorgegangen wird und daher auch einen Algorithmus.

In unserem Geist herrscht ebenfalls ein Algorithmus der uns steuert und das ohne dass die Menschheit das ahnte.

lädt ...
melden
antworten
Aktuelle Meldungen