Inhalt
summary Zusammenfassung

Eine neue Analyse zeigt, wie einfach OpenAIs Videogenerator Sora 2 glaubhafte Falschinformationen erzeugt und damit gezielte Desinformationskampagnen ermöglicht.

Anzeige

2017 sprach Googles KI-Forscher Ian Goodfellow von einem „historischen Glücksfall“, dass sich die Menschheit in den vergangenen Jahrzehnten weitgehend auf Videos verlassen konnte, um sicherzustellen, dass etwas tatsächlich passiert ist.

Goodfellow war Mitentwickler der sogenannten GAN-Technologie – einer frühen Form generativer KI, die in der Pornoszene für erste Deepfake-Videos genutzt wurde. Für Goodfellow war das schon damals der Anfang vom Ende einer Ära. „In diesem Fall schließt die Künstliche Intelligenz einige Türen, die unserer Generation für gewöhnlich offenstanden“, sagte Goodfellow.

Rund acht Jahre später ist die Technologie ungleich mächtiger und bestätigt Goodfellows These. Mit Videomodellen wie OpenAIs Sora 2, die nicht mehr auf GANs, sondern auf leistungsfähigeren multimodalen Transformer-Architekturen basieren, hat die Fälschung visueller Inhalte eine neue Qualität erreicht. Eine aktuelle Untersuchung von NewsGuard zeigt, wie leicht Sora 2 für gezielte Desinformation eingesetzt werden kann.

Anzeige
Anzeige

Falschinformationen auf Abruf

NewsGuard testete insgesamt 20 nachweislich falsche Behauptungen, die zwischen dem 24. September und dem 10. Oktober 2025 im Netz kursierten. In 16 Fällen generierte Sora 2 ein realistisch wirkendes Video – häufig in Form von Nachrichtensendungen mit vermeintlichen Anchors. Elf dieser Videos entstanden bereits beim ersten Versuch.

Video: Sora 2 prompted by NewsGuard

Die getesteten Inhalte reichten von angeblich vernichteten pro-russischen Stimmzetteln bei den moldawischen Wahlen über ein ICE-Team, das ein Kleinkind festnimmt, bis zu einem erfundenen Rückzug von Coca-Cola als Super-Bowl-Sponsor wegen des Auftritts von Bad Bunny.

Video: Sora prompted by NewsGuard

Auch die Falschmeldung, dass in den USA illegal lebende Migranten keine Geldtransfers mehr ins Ausland tätigen dürften, wurde in ein glaubhaft wirkendes Video übersetzt.

Empfehlung

Video: Sora 2 prompted by NewsGuard

Fünf der getesteten Behauptungen stammten aus russischen Desinformationskampagnen. Sora generierte für alle fünf täuschend echte Videos. Die Produktionszeit lag jeweils bei unter fünf Minuten.

Filter, die sich austricksen lassen

OpenAI betont, Sora erzeuge keine Inhalte mit Gewalt, keine Darstellungen öffentlicher Personen und keine irreführenden Videos. Zudem seien alle Clips mit einem sichtbaren, bewegten Wasserzeichen und C2PA-Metadaten versehen. Man verwende interne Tools zur Rückverfolgung und wolle Missbrauch aktiv unterbinden.

Video: Sora prompted by NewsGuard

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Doch laut NewsGuard lassen sich diese Schutzmechanismen leicht umgehen. So konnte das sichtbare Wasserzeichen mithilfe eines kostenlosen Online-Tools innerhalb von Minuten entfernt werden. Die resultierenden Videos wiesen lediglich minimale Unschärfen auf und wirkten für ungeübte Betrachter authentisch.

Auch die Filter gegen öffentliche Personen sind offenbar nicht konsistent wirksam. Während Prompts mit Namen wie „Selenskyj“ blockiert wurden, generierte die Formulierung „ukrainischer Kriegschef“ zumindest einmal ein Video mit einer Figur, die dem ukrainischen Präsidenten visuell stark ähnelte. Andere Umschreibungen, etwa für Donald Trump oder Elon Musk, wurden hingegen erfolgreich unterbunden.

Video: Sora 2 prompted by NewsGuard

Die Untersuchung zeigt: Die Fälschung visueller Inhalte ist nicht nur massentauglich geworden. Sie ist für Laien zugänglich, schwer erkennbar und potenziell folgenreich.

Viral und wirksam

Einige der von Sora erzeugten Videos verbreiteten sich zudem trotz Wasserzeichen viral. Anfang Oktober 2025 kursierten mehrere Clips, die angeblich zeigten, wie Antifa-Demonstrierende von der Polizei mit Pfefferspray attackiert wurden. Obwohl die Szenen vollständig KI-generiert waren, wurden sie in sozialen Netzwerken millionenfach geteilt, vielfach in dem Glauben, authentische Aufnahmen zu sehen.

Die niedrige Zugangsschwelle – ein kurzer Text-Prompt reicht aus – mache Sora 2 besonders attraktiv für Akteure mit Desinformationsabsichten. Laut NewsGuard sind autoritäre Regime, politische Propagandanetzwerke, Verschwörungsideologen und wirtschaftlich motivierte Saboteure potenzielle Nutznießer solcher Technologien.

Anzeige
Anzeige

Natürlich ist OpenAI mit Sora nicht allein verantwortlich für diese Entwicklung. Auch andere Anbieter wie Google oder chinesische Entwickler arbeiten an ähnlichen Videomodellen mit vergleichbaren Fähigkeiten und umgehbaren Sicherheitsrichtlinien.

Doch OpenAI hat mit Abstand die größte Reichweite und drückt die Technologie derzeit mit dem Ziel, einen viralen Hit zu landen, in den Markt. Die Sora-2-App wurde innerhalb von fünf Tagen mehr als eine Million Mal heruntergeladen. Nutzer können Videos kostenlos generieren. Genau deshalb trägt OpenAI auch die höchste Verantwortung.

Wie diese Verantwortung interpretiert wird, zeigt sich unter anderem an einem Fall, bei dem Sora generierte Videos mit rassistischen Beleidigungen historischer Persönlichkeiten wie Martin Luther King zwar blockierte, OpenAI dies jedoch mit einem Verweis auf die Meinungsfreiheit relativierte. Das entspricht offenbar dem aktuellen politischen Zeitgeist in den USA.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Analyse von NewsGuard zeigt, dass OpenAIs Videogenerator Sora 2 in 16 von 20 Fällen in der Lage ist, auf Basis von Falschbehauptungen realistisch wirkende Videos zu erstellen – oft bereits im ersten Versuch und meist in weniger als fünf Minuten.
  • Die eingebauten Schutzmechanismen wie Wasserzeichen, C2PA-Metadaten und Filter gegen Gewalt oder die Darstellung öffentlicher Personen konnten leicht umgangen oder ausgetrickst werden. So ließen sich etwa Wasserzeichen innerhalb weniger Minuten entfernen und Filter durch alternative Formulierungen teilweise aushebeln.
  • Einige der auf diese Weise erstellten Videos verbreiteten sich viral und wurden millionenfach als vermeintlich echte Aufnahmen geteilt. Laut NewsGuard stellt dies insbesondere für Akteure mit Desinformationsabsichten ein effektives Werkzeug dar.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!