Ethik in der Künstlichen Intelligenz
Johannes-Kepler-Uni will Skepsis gegenüber Robotern mit "ethischen Leitplanken" begegnen – Soziologe vom "Munich Center for Technology in Society" verstärkt KI-Lab.
Viele Menschen sind gegenüber Robotern und Künstlicher Intelligenz noch immer skeptisch", sagt Martina Mara, Professorin für Roboterpsychologie an der JKU. Sie und ihr Robotpsychology Lab sind Teil des JKU-Institutsnetzwerks, das ab kommendem Wintersemester das Studium der Künstlichen Intelligenz (KI) anbieten wird (die OÖN berichteten). KI-Pionier Sepp Hochreiter, Leiter des Instituts für Machine Learning und des Linz Institute of Technology (LIT), war führend in der Planung der neuen und zukunftsweisenden Studienrichtung.
"Daten sind das neue Öl, Künstliche Intelligenz ist die neue Elektrizität", laute ein Schlagwort des boomenden Sektors KI. Das geht manchen Menschen zu schnell. "Eine der Aufgaben der Politik liegt darin, den technologischen Fortschritt derart zu verlangsamen, dass der Mensch noch mitkommen kann", fordert Genetiker Markus Hengstschläger. Der wissenschaftliche Leiter des konservativen Think-Tanks Academia Superior diskutierte dieser Tage mit Studierenden über die "Moral von Maschinen", da unter diesem Thema das heurige Symposion der Academia Superior stattfindet (30. März, Gmunden). "Die Politik muss überprüfen, ob das, was technisch machbar ist, auch wirklich sinnvoll ist – und bei Bedarf auch gegensteuern", sagt Hengstschläger.
Doch nicht nur die Politik, auch die Industrie und die Universitäten sind gefragt: "Wir dürfen keine Maschinen entwickeln, deren Entscheidungen nicht mehr vom Menschen nachvollzogen werden können", fasst Hengstschläger die Diskussion zusammen. Algorithmen müssen "sich erklären können" – nur so könne auch im Vorhinein abgeschätzt werden, welche Handlungen ein KI-System setzen werde.
Ethik entsteht nicht von selbst
"Kategorien wie ,Moral’ oder ,Ethik’ sind keine Kriterien, die sich selbständig entwickeln können. Eine der großen gesellschaftlichen Aufgaben, vor denen die Menschheit steht, ist es, den Rahmen zu definieren, innerhalb dessen die Maschinen selbständig agieren dürfen", sagt Hengstschläger und warnt: "Wir dürfen keine Technologie einsetzen, die wir nicht mehr verstehen."
"Technologie ist nicht neutral – breit eingesetzt, verändert sie die Gesellschaft", sagt Ulrich Meyer vom "Munich Center for Technology in Society" an der Technischen Universität München. Der Soziologe und Leiter der Forschungsgruppe "Reorganizing Industries" nennt als Beispiel das Handy. Meyer, der zudem an der Ruhr-Universität Bochum über die "Soziologie der digitalen Arbeit" lehrt, wechselt mit dem Start des KI-Studiums an der JKU nach Linz und wird hier sein Spezialgebiet verfolgen: das Wechselverhältnis von Technik und Gesellschaft. "Es sollte einen Ort im Studium von Technikern geben, wo sie sehen, dass sie ihre Arbeit in der und für die Gesellschaft machen", sagt Meyer. Es gehe um die Konsequenzen, die Technologie für die Gesellschaft habe, und auch um die gesellschaftlichen Erwartungen an die KI und die Sorgen davor.