Immer wieder wird vor den Gefahren des Deepfake-Betrugs gewarnt, jetzt gibt es zwei konkrete Fälle. Betroffen sind die ZDF-Moderatoren Christian Sievers und Tagesschausprecher André Schünke.
In einem Werbevideo auf Facebook verspricht der falsche Sievers große Gewinne mit neuen KI-gestützten Investmentplattformen. Mit "minimalem Einsatz" könnten deutsche Bürger "große Geldsummen" verdienen.
Diese Botschaft und die insgesamt amateurhafte Aufmachung des Clips könnten skeptisch machen. Wäre da nicht die täuschend echte digitale Kopie mit der Stimme des bekannten ZDF-Moderators Christian Sievers.
Sievers beschwert sich auf Twitter: "Der Typ sieht aus wie ich, klingt (fast) wie ich. Aber ich bin es nicht wirklich ... Wirklich nicht". Er warnt: "Vorsicht, fieser Betrug mit KI in sozialen Medien". Bei Facebook, wo das Video offenbar verbreitet wurde, hat er auf seine Beschwerde keine Reaktion erhalten.
Deutliche Deepfake-Hinweise - aber sie gehen im Social-Media-Wirbel unter
Erst bei genauerem Hinsehen fällt auf, dass die Lippenbewegungen von Sievers nicht synchron zu seinen Worten sind und animiert wirken.
Aber: Wer das Video auf einem kleinen Smartphone-Display in niedriger Facebook-Auflösung nur flüchtig sieht, dem fallen solche kleinen Ungereimtheiten vermutlich gar nicht auf.
Vor allem, wenn diese Videos bewusst an weniger technikaffine Zielgruppen ausgeliefert werden, die sich der neuen Fälschungsmöglichkeiten durch KI nicht bewusst sind.
Überzeugend ist die geklonte Stimme von Sievers. Da von Sievers durch seine Arbeit als Nachrichtensprecher viele Stunden Audiomaterial im Netz zur Verfügung stehen, ist es einfach, ein entsprechendes Stimmmodell zu trainieren.
Auch der Tagesschausprecher André Schünke wurde Mitte August Opfer eines Deepfake-Betrugsversuchs in fast identischer Machart. "Es kann einem schon Angst machen, was mit künstlicher Intelligenz heutzutage möglich ist. Und ich fürchte, das ist erst der Anfang. Es ist schwer, Original und Fälschung zu unterscheiden", sagt Schünke der Bild-Zeitung.
Nachrichtensprecherinnen und -sprecher eignen sich besonders gut für das Training von Deepfake-KI-Systemen und entsprechende Betrugsversuche. Sie sind oft bekannt, genießen hohes Ansehen und Vertrauen in der Gesellschaft, und es gibt eine große Menge an hochwertigem Audio- und Videomaterial von ihnen im Internet.
Das Problem bei diesen Betrugsversuchen ist, dass sie zwar prinzipiell auch ohne KI-Werkzeuge möglich waren und sind, dass KI aber die Einstiegshürde senkt. Bei Anbietern wie Elevenlabs reichen beispielsweise schon fünf Minuten Audiomaterial aus, um eine geklonte Stimme mit Wiedererkennungseffekt und menschlicher Intonation zu erhalten.