Mithilfe von KI-generierten Stimmen geben sich Betrüger am Telefon als Angehörige aus, um Geld zu erpressen. Ein Anwalt berichtet von einem Vorfall in seiner Familie.
Der Verbraucherschutzanwalt Jay Shooster berichtet auf X (früher Twitter) von einem Betrugsversuch, dem sein Vater beinahe zum Opfer gefallen wäre. Dieser erhielt einen Anruf von einer Stimme, die sich als Shooster (also als Sohn) ausgab und behauptete, nach einem Unfall unter Alkoholeinfluss verhaftet worden zu sein. Der Anrufer forderte 30.000 Dollar Kaution.
Tatsächlich handelte es sich um einen Betrugsversuch. Shooster vermutet, dass der Zeitpunkt des Anrufs kein Zufall war. Nur wenige Tage zuvor war ein 15-sekündiger Ausschnitt seiner Stimme im Fernsehen zu hören gewesen - genug Material, um einen passablen KI-Stimmklon zu erstellen.
Obwohl Shooster als Verbraucherschutzanwalt bereits Vorträge über genau diese Art von Betrug gehalten, online darüber berichtet und mit seiner Familie darüber gesprochen hatte, wären seine Angehörigen beinahe darauf hereingefallen.
Dies zeige, wie effektiv solche Betrugsmaschen seien, warnt er. Shooster sieht den Vorfall als weitere Erinnerung daran, dass die Politik die KI-Branche stärker regulieren müsse.
Studien zeigen Schwierigkeiten bei der Erkennung von Stimmfälschungen
Wie leicht sich Menschen von gefälschten Stimmen täuschen lassen, zeigt auch eine Studie des University College London. Darin erkannten die Probanden KI-generierte Stimmen in 27 Prozent der Fälle nicht als Fälschung. Dabei spielte es keine Rolle, ob die Teilnehmer Englisch oder Mandarin sprachen.
Auch Gewöhnung und mehrmaliges Anhören verbesserten die Erkennungsrate kaum. Das bedeutet, dass theoretisch jeder vierte Telefonbetrug mit gefälschten Stimmen Erfolg haben könnte. Die Forscher betonen die Notwendigkeit besserer automatischer Deepfake-Detektoren, da menschliche Intuition hier an ihre Grenzen stößt.
Sicherheitsexperten von IBM ist es bereits gelungen, in einem Experiment Live-Telefonate mittels KI zu manipulieren, um Geld auf falsche Konten umzuleiten. Diesen als "Audio-Jacking" bezeichneten Angriff demonstrierten sie, indem sie in einem Gespräch das Stichwort "Bankkonto" erkannten und die genannte Kontonummer durch eine eigene ersetzten.
Die Forscher kombinierten dafür verschiedene KI-Techniken wie Spracherkennung, Textgenerierung und Stimmklone. Sie warnen, dass mit der Weiterentwicklung der Technik ein erhebliches Risiko für Verbraucher bestehe. Zukünftig seien sogar Manipulationen von Live-Videoübertragungen denkbar.