Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Künstliche Intelligenz als kriminelle Gefahr

Von nachrichten.at/apa, 22. Februar 2018, 13:15 Uhr
Stellt künstliche Intelligenz in Zukunft eine Gefahr dar? Bild: colourbox

PARIS. Experten warnen in einer Studie vor dem Missbrauch Künstlicher Intelligenz durch Autokraten, Kriminelle und Terroristen.

Die Technologie könne "neue Bedrohungen aufwerfen oder bestehende Bedrohungen verändern", sagte Mitautor Sean O hEigeartaigh von der Uni Cambridge. Die 100 Seiten umfassende Analyse entwirft verschiedene Bedrohungsszenarien, wie ein Attentat mithilfe eines Staubsaugerroboters. Paris. In diesem Szenario wird ein solcher Roboter in das deutsche Finanzministerium geschleust und führt dort zunächst die üblichen Reinigungsprozesse durch. Sobald seine Gesichtserkennungs-Software das Gesicht des Ministers erkennt, explodiert eine versteckte Sprengstoffvorrichtung. Die Studie zeige, "wie die Welt in den nächsten fünf bis zehn Jahren aussehen könnte", erklärte O hEigeartaigh.

Eine weitere mögliche Anwendung Künstlicher Intelligenz sei die Automatisierung personalisierter "Phishing"-Angriffe im Internet. So wird der Versuch Krimineller bezeichnet, über Mail-Kommunikation an wertvolle persönliche Daten der Adressaten - wie etwa Bankverbindungen - zu gelangen. In Zukunft könnte es deutlich schwieriger werden, "Phishing"-Mails als solche zu erkennen, sagte O hEigeartaigh.

Überwachung und Manipulation der öffentlichen Meinung

In der Politik können nach Angaben der Studie bereits jetzt skrupellose oder autokratische Staats- und Regierungschefs die durch Überwachungsnetzwerke gesammelten Datenmengen nutzen, um ihr eigenes Volk auszuspionieren. Zusätzlich könne mithilfe billig, aber äußerst glaubwürdig gefälschter Videos die öffentliche Meinung in "einem zuvor unvorstellbaren Ausmaß" manipuliert werden.

Er persönlich sei "besonders besorgt über die Verwendung autonomer Drohnen für Terror und automatisierte Cyberattacken durch kriminelle und staatliche Gruppen", sagte ein weiterer Autor der Studie, Miles Brundage von der Universität Oxford. Drohnen und Roboter könnten als Raketenträger genutzt werden, um autonome Fahrzeuge zu zerstören oder um wichtige Infrastruktur zu Lösegeldzwecken zu bedrohen.

Die mehr als zwei Dutzend Autoren forderten von politischen Entscheidungsträgern und Unternehmen, Roboter-Software absolut sicher ("unhackable") zu machen und weitere Gesetze zur Steuerung der Erforschung Künstlicher Intelligenz zu erwägen. Ob Künstliche Intelligenz langfristig als hilfreich oder schädlich erachtet werde, sei "ein Produkt dessen, was die Menschen entscheiden zu tun", sagte Brundage.

mehr aus Weltspiegel

Protest in Österreich gegen Todesurteil für iranischen Rapper

Vom Herd in die Haft - Deutscher Starkoch Alfons Schuhbeck wird 75

Video: Harte Landung für Lufthansa-Jumbo

"Wir leben nur durch einen Zufall": Hunderte Bomben im alten Flughafen von Athen entschärft

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

0  Kommentare
0  Kommentare
Zu diesem Thema wurden noch keine Kommentare geschrieben.
Neueste zuerst Älteste zuerst Beste Bewertung
Aktuelle Meldungen