Inhalt
summary Zusammenfassung

KI-Technologie erlaubt das mühelose Klonen von Stimmen - auch von Politikern wie dem sudanesischen Ex-Präsidenten Omar al-Baschir, dessen vermeintliche Botschaften auf TikTok mitten im Bürgerkrieg verbreitet wird.

Anzeige

Ein TikTok-Account hat seit Ende August angeblich "geleakte Aufnahmen" des ehemaligen sudanesischen Präsidenten Omar al-Baschir veröffentlicht und während des Bürgerkriegs im Sudan Hunderttausende Aufrufe erhalten. Eine Untersuchung von Experten zeigt jedoch, dass die Stimme gefälscht ist - ein Produkt KI-basierter Stimmenklontechnologie. Al-Baschir, dem Kriegsverbrechen vorgeworfen werden und der 2019 vom Militär gestürzt wurde, ist seit einem Jahr nicht mehr öffentlich gesehen worden und gilt als schwer krank.

Die TikTok-Kampagne ist ein Beispiel für das wachsende Missbrauchspotenzial fortschrittlicher Audio- und Video-Manipulationstechniken, die häufig frei verfügbar sind. Hany Farid, der an der University of California in Berkeley im Bereich digitaler Forensik forscht, äußerte gegenüber der BBC Besorgnis über die "Demokratisierung des Zugangs zu ausgeklügelter Audio- und Video-Manipulationstechnologie", da selbst Laien jetzt problemlos gefälschte Inhalte erstellen könnten.

Botschaften des Ex-Präsidenten sind im Original von einem Blogger

Eine Untersuchung kam zu dem Schluss, dass die Aufnahmen per KI bearbeitet wurden, um al-Baschirs Stimme in den Aufnahmen nachzuahmen. Mindestens vier der veröffentlichten Fake-Aufnahmen stellten sich als Ausschnitte aus Live-Sendungen eines Bloggers heraus. Allerdings gibt es keine Anzeichen für eine Beteiligung des Bloggers an der Kampagne.

Anzeige
Anzeige

Die Motivation für die Imitation al-Baschirs bleibt unklar, die BBC spekuliert, die Kampagne könnte dazu dienen, bei den Zuhörern den Eindruck zu erwecken, der ehemalige Anführer sei am andauernden Bürgerkrieg beteiligt oder eine bestimmte politische Sichtweise glaubhaft zu machen.

TikTok hat den Account gesperrt

KI-Experten warnen, dass die Verbreitung gefälschter Audio- und Videoinhalte Desinformationen verbreiten werde und möglicherweise die Unruhen anstiften und Wahlen beeinflussen könnten. Mohamed Suliman, Forscher am Civic AI Lab der Northeastern University, fügte hinzu, dass solche Aufnahmen ein Klima schaffen könnten, in dem selbst authentische Aufnahmen angezweifelt werden.

TikTok hat den fraglichen Account nach einem Hinweis der BBC mit der Begründung gesperrt, er verstoße gegen Richtlinien, die sich auf die Verbreitung von "falschen Inhalten, die erheblichen Schaden verursachen können" und auf die Verwendung von synthetischen Medien beziehen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein anonymer TikTok-Account veröffentlichte angeblich "geleakte Aufnahmen" des ehemaligen sudanesischen Präsidenten Omar al-Baschir, aber Experten glauben, dass die Stimme mithilfe von KI-basierter Stimmenklontechnologie gefälscht wurde.
  • Hany Farid, ein Experte für digitale Forensik, äußert Besorgnis über das Missbrauchspotenzial von fortschrittlichen Audio- und Video-Manipulationstechniken, da sie leichter zugänglich werden und selbst Laien gefälschte Inhalte erstellen können.
  • TikTok hat den fraglichen Account gesperrt, da er gegen Richtlinien verstößt, die sich auf die Verbreitung von "falschen Inhalten, die erheblichen Schaden verursachen können" und auf die Verwendung von synthetischen Medien beziehen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!