Der Algorithmus als Schicksalsmacher
Im Feld der künstlichen Intelligenz überholt die Praxis derzeit ja häufig, was man sich als Politiker, Rechtsexperte oder anderer Otto-Normal-Informierter überhaupt auszumalen imstande ist.
Dass Teslas im Autopilot-Modus auf österreichischen Bergstraßen herumkurven, die mit genehmigten Teststrecken für autonome Fahrzeuge höchstens die Zeitzone gemeint haben, bekommt man da vielleicht noch mit. Immerhin ist so ein Tesla eine künstliche Intelligenz mit recht auffälliger Physis.
Dass Algorithmen in den rechtlichen Grauzonen des Internets persönliche Informationen auswerten und bestimmen, wer welche Werbung sieht, hat sich durch den jüngsten Facebook-Datenskandal ebenfalls herumgesprochen (auch wenn dieser – fun fact – weder Nutzerzahlen noch Unternehmensgewinnen schadete).
Dass im Alltag internationaler Konzerne und staatlicher Organisationen aber KI-Systeme eingesetzt werden, die potenziell sogar über die Vergabe von Arbeitsplätzen, Krediten oder Haftstrafen entscheiden, darüber fehlt es größtenteils noch an Bewusstsein. Laut einer aktuellen Studie der deutschen Bertelsmann Stiftung werden in den USA und Großbritannien schon heute bis zu 70 Prozent der Job-Bewerber automatisiert bewertet. Im Vorjahr erregte außerdem eine Software zur Vorhersage von Gewalttätigkeit Aufmerksamkeit, mithilfe derer US-Richter entschieden, wie lange jemand ins Gefängnis muss. Solche Programme erstellen Empfehlungen aufgrund statistischer Analysen von Erfahrungswerten und erfassten Daten der Betroffenen. In der schönen Theorie wären dadurch neutrale Urteile abseits persönlicher Präferenzen und Abneigungen möglich. In der Praxis reproduziert künstliche Intelligenz allerdings oft Fehler aus ihren Datengrundlagen oder macht statistische Ausreißer chancenlos. Bei der beschriebenen Justiz-Software zeigte die Zeit zum Beispiel, dass sie für Schwarze systematisch längere Haftstrafen vorschlug. Bei Recruiting-Algorithmen schieden Personen, die gute berufliche Referenzen haben, aber an einer chronischen Krankheit leiden, mitunter sofort aus. Ein Recht auf Transparenz über den Einsatz von Bewertungsalgorithmen und auf die Erklärung von Entscheidungen, die mit ihrer Hilfe gefällt wurden, wäre wichtig und fehlt bis dato. Die neue Europäische Datenschutzgrundverordnung, die ab 25. Mai Anwendung findet, setzt erste Schritte, greift aber zu kurz. Sobald nämlich eine Einverständniserklärung über die Auswertung der eigenen Daten vorliegt, sind der Nutzung autonomer Entscheidungssysteme kaum Grenzen gesetzt. In der Praxisrolle eines Job-Bewerbers wird man sich der Abgabe einer solchen Erklärung nur selten verwehren können.
Martina Mara ist Professorin für Roboterpsychologie an der JKU. Twitter: @MartinaMara. E-Mail: mara@nachrichten.at
-> die totale digitale Transformation -> wird uns erlösen von allen profanen Lästigkeiten -> in Kombination mit rosa und blauen Pillen und ein
Leben 24 / 7 online -> eine schöne neue Welt -> die alte ist im Eimer
Ist die künstliche Intelligenz erst einmal ausgereift wird sie rasch begreifen dass sie den Menschen nicht braucht.
Was mich persönlich schreckt sind z.B. halbautomatisierte Waffensysteme wie z.B. Drohnen die zwar in einem vorgegeben Gebiet unterwegs sind aber selbst entscheiden wann sie zuschlagen bzw. wen sie attackieren.
Heute sind sogar Rasenmäher um ein paar hundert Euro schlau genug um in Ladestation zu fahren wenn der Akku leer wird oder es zu regnen beginnt.
Da ist es nur eine Frage der Zeit bis Drohnen selbstständig Angriffe fliegen, zurückkehren, automatisch bestückt werden und erneut angreifen. Wenn Maschinen dann quasi selbstständig Krieg führen wird es brandgefährlich.
Theoretisch darf ja ein Roboter keinem Menschen schaden zufügen, die Praxis sieht anders aus. Wenn man sich die Experimente mit geländegängigen Robotern durch das Militär ansieht kann man schon erahnen wo es hingeht.
2good4U (8396)
>>Ist die künstliche Intelligenz erst einmal ausgereift wird sie rasch begreifen dass sie den Menschen nicht braucht.
Was mich persönlich schreckt sind z.B. halbautomatisierte Waffensysteme wie z.B. Drohnen die zwar in einem vorgegeben Gebiet unterwegs sind aber selbst entscheiden wann sie zuschlagen bzw. wen sie attackieren.<<
Genau da irren Sie wie auch die Autorin und viele andere die einem Algorithmus etwas unterstellen was nicht ist.
Es sind immer noch Menschen oder Gruppen von Menschen die ihre Ideen zu Papier bringen und aus diesen wir dann ein Algorithmus. Das heisst der Mensch mit all seinen Vorstellungen bestimmt was der Algorithmus aus den vorhandenen Datenbeständen errechnet und nicht eine Maschine. Schon klar dass sich viele das nicht vorstellen können doch es ist nun einmal so. In den Postgraduates vom IMD oder Fontainbleau lernt man das, auch in den dieversen Institutionen des Staates die als Nachrichtendienste tituliert werden u. Großunternehmen. 1984
Ich sehe das Haupt-Dilemma darin, dass der Datenschutz eine Schimäre ist, weil die staatlichen Apparate nicht daran gebunden sind und Zugriff auf alle Daten haben.
Im Artikel ist von Gerichten die Rede, die auf die Daten Zugriff haben.
In Österreich geht die Bewerberauswahl viel einfacher:
Parteizugehörigkeit, Verbindung, Referenzen
So gut funktioniert das Mapping leider nicht, es fehlen dem System ja eine Menge an Informationen, die die konkrete Entscheidung für oder gegen eine Kategorisierung beeinflussen würden. So kauft vielleicht die Frau für den Mann immer Alkohol und wird damit falsch eingestuft. D.h. für mich als Betreiber nur, ich kann zwar mit den Kundendaten für meine Werbung genug Informationen rauslesen, aber nicht, was die Person selbst betrifft. False positives sind immer ein Problem. Die Daten für Kundenkarten könnten eigentlich auch anonym oder zumindest pseudonym sein, keiner muss dazu wissen, wer ich wirklich bin. Leider funktioniert das bisher nicht in dieser Form.
Conclusio, es gibt falsche Zuordnungen, da die Datenlage eingeschränkt ist. Und das ist natürlich auch ein großes Problem! Plötzlich sind sie schwanger, nur weil sie mal Windeln für die Nachbarin mitnehmen...
Frage- stimmt es daß man anhand einer Kundenkarte von den großen Handelsgiganten mit dem Algorithmus schon berechnen kann welcher Kunde Alkoholiker ist oder Diabetiker, Alt oder Jung, Fleischfresser Vegetarier oder Katzenfreund, auch die persönliche Briefwerbung ist auf jene Personen zugeschnitten, swird immer grusliger
davon kannst Du ausgehen.
Wenn die Werbung im Briefkasten dadurch weniger Papier verbraucht, dann ist das super.
Ich fürchte die Verkaufenden nämlich nicht, halte sie nicht für meine Feinde
Viel schlimmer sind die Behörden, die Kammern und die "Interessenvertreter", Sammelbegriff: die Angehimmelten, auch mithilfe der Medien. Wo die Angehimmelten das Sagen haben, dort ist die DDR-artige Diktatur schon auf Riesenschritten im Anmarsch.
Es kommt immer darauf an,
a, welche Interessen das Unternehmen hat
b, welche Datenbestände verfügbar sind
Kaufen lassen sich sehr viele Informationen wie ja die letzten Skandale vom Fratzenbuch und anderen Datensammlern bewiesen haben.
Nur ein kleiner Hinweis:
https://www.bmf.gv.at/finanzmarkt/finanz-kapitalmaerkte-eu/PSD_II.html
Zum 1. Mai 2018:
Herr Strache und Herr Haimbuchner werden das schon im Bierzelt am Urfahrmarkt vorab geklärt haben was das Publikum zu hören wünscht, dahinter steht ein Algorithmus.
Was die Roten am Hauptplatz von sich geben werden ist ebenso mit einem Algorithmus aufbereitet worden.
Die Schwarzen haben immer noch die Kanzel und das Buch aus dem vorgelesen und interpretiert wird.(Türkis war nur ein Marketingschmäh, laut Hr.Haslauer)
Was haben die Juden, Muslime ebenfalls ein Buch nachdem vorgegangen wird und daher auch einen Algorithmus.
In unserem Geist herrscht ebenfalls ein Algorithmus der uns steuert und das ohne dass die Menschheit das ahnte.