KI-Betrug am Telefon: Fake-Sohn täuscht Vater vor, im Gefängnis zu sitzen
Kurz & Knapp
- Verbraucherschutzanwalt Jay Shooster berichtet von einem Betrugsversuch, bei dem sich jemand mit einer geklonten Stimme als er ausgab und von seinem Vater eine Kaution in Höhe von 30.000 Dollar forderte.
- Shooster vermutet, dass die Betrüger seine Stimme aus einem kürzlich ausgestrahlten Fernsehinterview geklont haben. Seiner Meinung nach reichen 15 Sekunden Sprachmaterial aus, um einen brauchbaren Stimmklon zu erstellen.
- Obwohl er seine Familie vor solchen Betrügereien gewarnt hatte, wäre sie beinahe darauf hereingefallen. Shooster fordert eine stärkere Regulierung der KI-Branche, um Verbraucher vor solchen Betrügereien zu schützen.
Mithilfe von KI-generierten Stimmen geben sich Betrüger am Telefon als Angehörige aus, um Geld zu erpressen. Ein Anwalt berichtet von einem Vorfall in seiner Familie.
Der Verbraucherschutzanwalt Jay Shooster berichtet auf X (früher Twitter) von einem Betrugsversuch, dem sein Vater beinahe zum Opfer gefallen wäre. Dieser erhielt einen Anruf von einer Stimme, die sich als Shooster (also als Sohn) ausgab und behauptete, nach einem Unfall unter Alkoholeinfluss verhaftet worden zu sein. Der Anrufer forderte 30.000 Dollar Kaution.
Tatsächlich handelte es sich um einen Betrugsversuch. Shooster vermutet, dass der Zeitpunkt des Anrufs kein Zufall war. Nur wenige Tage zuvor war ein 15-sekündiger Ausschnitt seiner Stimme im Fernsehen zu hören gewesen - genug Material, um einen passablen KI-Stimmklon zu erstellen.
Obwohl Shooster als Verbraucherschutzanwalt bereits Vorträge über genau diese Art von Betrug gehalten, online darüber berichtet und mit seiner Familie darüber gesprochen hatte, wären seine Angehörigen beinahe darauf hereingefallen.
Dies zeige, wie effektiv solche Betrugsmaschen seien, warnt er. Shooster sieht den Vorfall als weitere Erinnerung daran, dass die Politik die KI-Branche stärker regulieren müsse.
Studien zeigen Schwierigkeiten bei der Erkennung von Stimmfälschungen
Wie leicht sich Menschen von gefälschten Stimmen täuschen lassen, zeigt auch eine Studie des University College London. Darin erkannten die Probanden KI-generierte Stimmen in 27 Prozent der Fälle nicht als Fälschung. Dabei spielte es keine Rolle, ob die Teilnehmer Englisch oder Mandarin sprachen.
Auch Gewöhnung und mehrmaliges Anhören verbesserten die Erkennungsrate kaum. Das bedeutet, dass theoretisch jeder vierte Telefonbetrug mit gefälschten Stimmen Erfolg haben könnte. Die Forscher betonen die Notwendigkeit besserer automatischer Deepfake-Detektoren, da menschliche Intuition hier an ihre Grenzen stößt.
Sicherheitsexperten von IBM ist es bereits gelungen, in einem Experiment Live-Telefonate mittels KI zu manipulieren, um Geld auf falsche Konten umzuleiten. Diesen als "Audio-Jacking" bezeichneten Angriff demonstrierten sie, indem sie in einem Gespräch das Stichwort "Bankkonto" erkannten und die genannte Kontonummer durch eine eigene ersetzten.
Die Forscher kombinierten dafür verschiedene KI-Techniken wie Spracherkennung, Textgenerierung und Stimmklone. Sie warnen, dass mit der Weiterentwicklung der Technik ein erhebliches Risiko für Verbraucher bestehe. Zukünftig seien sogar Manipulationen von Live-Videoübertragungen denkbar.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.