Lade Inhalte...
  • NEWSLETTER
  • ABO / EPAPER
  • Lade Login-Box ...
    Anmeldung
    Bitte E-Mail-Adresse eingeben
    Bitte geben Sie Ihre E-Mail-Adresse oder Ihren nachrichten.at Benutzernamen ein.

gemerkt
merken
teilen

Wie Cyberkriminelle sich immer häufiger KI zunutze machen - und wie man sich schützen kann

Von Verena Gabriel, 17. November 2023, 13:06 Uhr
Videotelefonie Cybercrime KI Kriminalität
Unter anderem Deepfake-Clips kommen in der Cyberkriminalität zum Einsatz. Bild: colourbox.de

WIEN/LINZ. Betrüger haben das Potenzial von künstlicher Intelligenz erkannt. Sie fälschen Stimmen oder Gesichter, um das Vertrauen ihrer Opfer zu gewinnen.

Eine neue Ära des Internetbetrugs ist angebrochen. Wer eine WhatsApp-Nachricht, eine Sprachaufnahme oder einen Videoanruf erhält, kann heutzutage nicht mehr darauf vertrauen, dass ein echter Mensch dahintersteckt. "Für den Menschen ist es oft nicht zu erkennen, dass es eine Fälschung ist", sagt Sven Kurras. Der Experte für künstliche Intelligenz (KI) demonstrierte gestern in Wien, wie "echt" solche Fake-Aufnahmen aussehen können. Kurras zeigte ein Video, in dem er über seine Arbeit sprach. "Die Wahrheit ist: Das habe ich nie gesagt." Die KI habe lediglich einen Text wiedergegeben und dafür seine Stimme und sein Gesicht verwendet. "Hier sieht man: Die Technologien werden verwendet, um Identitäten zu stehlen", sagt er.

Herausforderung für Ermittler

Gängige Praxis ist diese Art von Betrug noch nicht. "In Österreich gibt es einzelne Fälle, aber in der Masse ist die KI bisher noch nicht angekommen", sagt Manuel Scherscher, Leiter der Betrugsabteilung im Bundeskriminalamt. Internetbetrug bestimmt schon lange seine Arbeit. 27.600 derartige Delikte sind im Vorjahr angezeigt worden. Der Schaden belief sich auf rund 700 Millionen Euro, wobei die Dunkelziffer noch viel höher sein dürfte. Die Zahl der Fälle steigt von Jahr zu Jahr um rund 20 Prozent, sagt Gerald Sakoparnig, oberster Betrugsermittler im Landeskriminalamt.

  • Cybercrime: Künstliche Intelligenz als Gefahr:

Ein Grund für den rapiden Anstieg sei der stetige technologische Fortschritt, außerdem würden die Täter häufig aus dem Ausland agieren. "Das macht es uns schwer, die Straftaten zurückzuverfolgen und die Täter zu ergreifen", sagt Scherscher vom BKA. Zu den etablierten Betrugsmaschen zählen neben dem Neffentrick, falschen Polizisten, "Cold Calls" (Werbeanrufe) oder den lästigen Ping-Anrufen auch die sogenannten Phishing-Attacken. Mit diesen Tricks versuchen Kriminelle, über einen Vorwand an die Bankdaten ihrer Opfer zu kommen.

"Diese Betrugsart blüht deshalb so, weil inzwischen ganze Phishing-Bausätze im Darknet erhältlich sind, inklusive detaillierter Anleitungen", sagt Scherscher. Für ihn steht aber fest: In naher Zukunft werden auch bei uns die KI-basierten Tricks aufblühen. In anderen Teilen der Welt, etwa in Brasilien, grassieren Betrugsfälle durch künstliche Intelligenz bereits. Es gibt Fälle, in denen sich Kriminelle als Chef eines Unternehmens ausgegeben haben und so an hohe Summen gelangt sind.

Deepfakes werden diese realistisch wirkenden Fotos, Videos oder Audiodateien genannt, die mithilfe eines Algorithmus erstellt werden. Aber wie kommen die Betrüger an die Stimmen der Tochter, des Sohnes oder eines anderen vertrauten Menschen? "Es reicht schon eine Instagram-Story", sagt KI-Experte Sven Kurras. Diese "krallen" sich die Betrüger und machen damit, was sie wollen. Sogar die Sprache kann verändert werden. "Die gute Nachricht ist, dass derzeit noch keine KI Österreichisch beherrscht", sagt Kurras.

Tipp: Codewort vereinbaren

Um Deepfakes zu enttarnen, soll man genau auf Unschärfen, asynchrone Lippenbewegungen und auf das Verhalten des Gegenübers achten. Hat man während eines Live-Videocalls Verdacht geschöpft, könnte man zu gezielten Tests auffordern, wie zum Beispiel zum Singen. Empfohlen wird auch, sich vorab ein familieninternes "Codewort" auszumachen.

Der Einsatz von KI kann aber auch unbewusst und ohne böse Absichten strafbar werden. Zum Beispiel werden immer wieder Urheberrechte durch KI-Inhalte verletzt. Davor warnte Armin Kaltenegger, der im Kuratorium für Verkehrssicherheit (KFV) für rechtliche Fragen zuständig ist. "Die künstliche Intelligenz steckt noch in den Anfängen. Es geht darum, dass wir uns schon jetzt der Möglichkeiten und Gefahren bewusst sind und den Kriminellen zwei Schritte voraus sind."

Auch Gerald Sakoparnig ist sich sicher: "Das wird in Zukunft ein brennendes Thema."

mehr aus Chronik

Vernachlässigung in Vorarlberger Pflegeheim? Vorwürfe nach Todesfall

19-Jähriger fuhr Passanten in Wien nieder: Ehepaar schwer verletzt

Auto auf Flucht vor Polizeistreife in Vorarlberg schwer verunglückt

2 Bergsteiger (30, 53) stürzten in Osttirol ab - verletzt

Autorin
Verena Gabriel
Verena Gabriel

Interessieren Sie sich für dieses Thema?

Mit einem Klick auf das “Merken”-Symbol fügen Sie ein Thema zu Ihrer Merkliste hinzu. Klicken Sie auf den Begriff, um alle Artikel zu einem Thema zu sehen.

Lädt

info Mit dem Klick auf das Icon fügen Sie das Schlagwort zu Ihren Themen hinzu.

info Mit dem Klick auf das Icon öffnen Sie Ihre "meine Themen" Seite. Sie haben von 15 Schlagworten gespeichert und müssten Schlagworte entfernen.

info Mit dem Klick auf das Icon entfernen Sie das Schlagwort aus Ihren Themen.

Fügen Sie das Thema zu Ihren Themen hinzu.

Aktuelle Meldungen