Anzeige
Skip to content

Deutsche Nachrichtensprecher werden Opfer von Deepfake-Betrugsversuchen

Image description
Midjourney prompted by THE DECODER

Immer wieder wird vor den Gefahren des Deepfake-Betrugs gewarnt, jetzt gibt es zwei konkrete Fälle. Betroffen sind die ZDF-Moderatoren Christian Sievers und Tagesschausprecher André Schünke.

In einem Werbevideo auf Facebook verspricht der falsche Sievers große Gewinne mit neuen KI-gestützten Investmentplattformen. Mit "minimalem Einsatz" könnten deutsche Bürger "große Geldsummen" verdienen.

Diese Botschaft und die insgesamt amateurhafte Aufmachung des Clips könnten skeptisch machen. Wäre da nicht die täuschend echte digitale Kopie mit der Stimme des bekannten ZDF-Moderators Christian Sievers.

Sievers beschwert sich auf Twitter: "Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich ... Wirklich nicht". Er warnt: "Vorsicht, fieser Betrug mit KI in sozialen Medien". Bei Facebook, wo das Video offenbar verbreitet wurde, hat er auf seine Beschwerde keine Reaktion erhalten.

Anzeige
DEC_D_Incontent-1

Video: Christian Sievers bei Twitter

Deutliche Deepfake-Hinweise - aber sie gehen im Social-Media-Wirbel unter

Erst bei genauerem Hinsehen fällt auf, dass die Lippenbewegungen von Sievers nicht synchron zu seinen Worten sind und animiert wirken.

Aber: Wer das Video auf einem kleinen Smartphone-Display in niedriger Facebook-Auflösung nur flüchtig sieht, dem fallen solche kleinen Ungereimtheiten vermutlich gar nicht auf.

Vor allem, wenn diese Videos bewusst an weniger technikaffine Zielgruppen ausgeliefert werden, die sich der neuen Fälschungsmöglichkeiten durch KI nicht bewusst sind.

Anzeige
DEC_D_Incontent-2

Überzeugend ist die geklonte Stimme von Sievers. Da von Sievers durch seine Arbeit als Nachrichtensprecher viele Stunden Audiomaterial im Netz zur Verfügung stehen, ist es einfach, ein entsprechendes Stimmmodell zu trainieren.

Auch der Tagesschausprecher André Schünke wurde Mitte August Opfer eines Deepfake-Betrugsversuchs in fast identischer Machart. "Es kann einem schon Angst machen, was mit künstlicher Intelligenz heutzutage möglich ist. Und ich fürchte, das ist erst der Anfang. Es ist schwer, Original und Fälschung zu unterscheiden", sagt Schünke der Bild-Zeitung.

Nachrichtensprecherinnen und -sprecher eignen sich besonders gut für das Training von Deepfake-KI-Systemen und entsprechende Betrugsversuche. Sie sind oft bekannt, genießen hohes Ansehen und Vertrauen in der Gesellschaft, und es gibt eine große Menge an hochwertigem Audio- und Videomaterial von ihnen im Internet.

Das Problem bei diesen Betrugsversuchen ist, dass sie zwar prinzipiell auch ohne KI-Werkzeuge möglich waren und sind, dass KI aber die Einstiegshürde senkt. Bei Anbietern wie Elevenlabs reichen beispielsweise schon fünf Minuten Audiomaterial aus, um eine geklonte Stimme mit Wiedererkennungseffekt und menschlicher Intonation zu erhalten.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Twitter | Tagesschau

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren