Inhalt
summary Zusammenfassung

Mithilfe von KI-generierten Stimmen geben sich Betrüger am Telefon als Angehörige aus, um Geld zu erpressen. Ein Anwalt berichtet von einem Vorfall in seiner Familie.

Anzeige

Der Verbraucherschutzanwalt Jay Shooster berichtet auf X (früher Twitter) von einem Betrugsversuch, dem sein Vater beinahe zum Opfer gefallen wäre. Dieser erhielt einen Anruf von einer Stimme, die sich als Shooster (also als Sohn) ausgab und behauptete, nach einem Unfall unter Alkoholeinfluss verhaftet worden zu sein. Der Anrufer forderte 30.000 Dollar Kaution.

Tatsächlich handelte es sich um einen Betrugsversuch. Shooster vermutet, dass der Zeitpunkt des Anrufs kein Zufall war. Nur wenige Tage zuvor war ein 15-sekündiger Ausschnitt seiner Stimme im Fernsehen zu hören gewesen - genug Material, um einen passablen KI-Stimmklon zu erstellen.

Obwohl Shooster als Verbraucherschutzanwalt bereits Vorträge über genau diese Art von Betrug gehalten, online darüber berichtet und mit seiner Familie darüber gesprochen hatte, wären seine Angehörigen beinahe darauf hereingefallen.

Anzeige
Anzeige

Dies zeige, wie effektiv solche Betrugsmaschen seien, warnt er. Shooster sieht den Vorfall als weitere Erinnerung daran, dass die Politik die KI-Branche stärker regulieren müsse.

Studien zeigen Schwierigkeiten bei der Erkennung von Stimmfälschungen

Wie leicht sich Menschen von gefälschten Stimmen täuschen lassen, zeigt auch eine Studie des University College London. Darin erkannten die Probanden KI-generierte Stimmen in 27 Prozent der Fälle nicht als Fälschung. Dabei spielte es keine Rolle, ob die Teilnehmer Englisch oder Mandarin sprachen.

Auch Gewöhnung und mehrmaliges Anhören verbesserten die Erkennungsrate kaum. Das bedeutet, dass theoretisch jeder vierte Telefonbetrug mit gefälschten Stimmen Erfolg haben könnte. Die Forscher betonen die Notwendigkeit besserer automatischer Deepfake-Detektoren, da menschliche Intuition hier an ihre Grenzen stößt.

Sicherheitsexperten von IBM ist es bereits gelungen, in einem Experiment Live-Telefonate mittels KI zu manipulieren, um Geld auf falsche Konten umzuleiten. Diesen als "Audio-Jacking" bezeichneten Angriff demonstrierten sie, indem sie in einem Gespräch das Stichwort "Bankkonto" erkannten und die genannte Kontonummer durch eine eigene ersetzten.

Die Forscher kombinierten dafür verschiedene KI-Techniken wie Spracherkennung, Textgenerierung und Stimmklone. Sie warnen, dass mit der Weiterentwicklung der Technik ein erhebliches Risiko für Verbraucher bestehe. Zukünftig seien sogar Manipulationen von Live-Videoübertragungen denkbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Verbraucherschutzanwalt Jay Shooster berichtet von einem Betrugsversuch, bei dem sich jemand mit einer geklonten Stimme als er ausgab und von seinem Vater eine Kaution in Höhe von 30.000 Dollar forderte.
  • Shooster vermutet, dass die Betrüger seine Stimme aus einem kürzlich ausgestrahlten Fernsehinterview geklont haben. Seiner Meinung nach reichen 15 Sekunden Sprachmaterial aus, um einen brauchbaren Stimmklon zu erstellen.
  • Obwohl er seine Familie vor solchen Betrügereien gewarnt hatte, wäre sie beinahe darauf hereingefallen. Shooster fordert eine stärkere Regulierung der KI-Branche, um Verbraucher vor solchen Betrügereien zu schützen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!