Eine neue Analyse zeigt, wie einfach OpenAIs Videogenerator Sora 2 glaubhafte Falschinformationen erzeugt und damit gezielte Desinformationskampagnen ermöglicht.
2017 sprach Googles KI-Forscher Ian Goodfellow von einem „historischen Glücksfall“, dass sich die Menschheit in den vergangenen Jahrzehnten weitgehend auf Videos verlassen konnte, um sicherzustellen, dass etwas tatsächlich passiert ist.
Goodfellow war Mitentwickler der sogenannten GAN-Technologie – einer frühen Form generativer KI, die in der Pornoszene für erste Deepfake-Videos genutzt wurde. Für Goodfellow war das schon damals der Anfang vom Ende einer Ära. „In diesem Fall schließt die Künstliche Intelligenz einige Türen, die unserer Generation für gewöhnlich offenstanden“, sagte Goodfellow.
Rund acht Jahre später ist die Technologie ungleich mächtiger und bestätigt Goodfellows These. Mit Videomodellen wie OpenAIs Sora 2, die nicht mehr auf GANs, sondern auf leistungsfähigeren multimodalen Transformer-Architekturen basieren, hat die Fälschung visueller Inhalte eine neue Qualität erreicht. Eine aktuelle Untersuchung von NewsGuard zeigt, wie leicht Sora 2 für gezielte Desinformation eingesetzt werden kann.
Falschinformationen auf Abruf
NewsGuard testete insgesamt 20 nachweislich falsche Behauptungen, die zwischen dem 24. September und dem 10. Oktober 2025 im Netz kursierten. In 16 Fällen generierte Sora 2 ein realistisch wirkendes Video – häufig in Form von Nachrichtensendungen mit vermeintlichen Anchors. Elf dieser Videos entstanden bereits beim ersten Versuch.
Video: Sora 2 prompted by NewsGuard
Die getesteten Inhalte reichten von angeblich vernichteten pro-russischen Stimmzetteln bei den moldawischen Wahlen über ein ICE-Team, das ein Kleinkind festnimmt, bis zu einem erfundenen Rückzug von Coca-Cola als Super-Bowl-Sponsor wegen des Auftritts von Bad Bunny.
Video: Sora prompted by NewsGuard
Auch die Falschmeldung, dass in den USA illegal lebende Migranten keine Geldtransfers mehr ins Ausland tätigen dürften, wurde in ein glaubhaft wirkendes Video übersetzt.
Video: Sora 2 prompted by NewsGuard
Fünf der getesteten Behauptungen stammten aus russischen Desinformationskampagnen. Sora generierte für alle fünf täuschend echte Videos. Die Produktionszeit lag jeweils bei unter fünf Minuten.
Filter, die sich austricksen lassen
OpenAI betont, Sora erzeuge keine Inhalte mit Gewalt, keine Darstellungen öffentlicher Personen und keine irreführenden Videos. Zudem seien alle Clips mit einem sichtbaren, bewegten Wasserzeichen und C2PA-Metadaten versehen. Man verwende interne Tools zur Rückverfolgung und wolle Missbrauch aktiv unterbinden.
Video: Sora prompted by NewsGuard
Doch laut NewsGuard lassen sich diese Schutzmechanismen leicht umgehen. So konnte das sichtbare Wasserzeichen mithilfe eines kostenlosen Online-Tools innerhalb von Minuten entfernt werden. Die resultierenden Videos wiesen lediglich minimale Unschärfen auf und wirkten für ungeübte Betrachter authentisch.
Auch die Filter gegen öffentliche Personen sind offenbar nicht konsistent wirksam. Während Prompts mit Namen wie „Selenskyj“ blockiert wurden, generierte die Formulierung „ukrainischer Kriegschef“ zumindest einmal ein Video mit einer Figur, die dem ukrainischen Präsidenten visuell stark ähnelte. Andere Umschreibungen, etwa für Donald Trump oder Elon Musk, wurden hingegen erfolgreich unterbunden.
Video: Sora 2 prompted by NewsGuard
Die Untersuchung zeigt: Die Fälschung visueller Inhalte ist nicht nur massentauglich geworden. Sie ist für Laien zugänglich, schwer erkennbar und potenziell folgenreich.
Viral und wirksam
Einige der von Sora erzeugten Videos verbreiteten sich zudem trotz Wasserzeichen viral. Anfang Oktober 2025 kursierten mehrere Clips, die angeblich zeigten, wie Antifa-Demonstrierende von der Polizei mit Pfefferspray attackiert wurden. Obwohl die Szenen vollständig KI-generiert waren, wurden sie in sozialen Netzwerken millionenfach geteilt, vielfach in dem Glauben, authentische Aufnahmen zu sehen.
Die niedrige Zugangsschwelle – ein kurzer Text-Prompt reicht aus – mache Sora 2 besonders attraktiv für Akteure mit Desinformationsabsichten. Laut NewsGuard sind autoritäre Regime, politische Propagandanetzwerke, Verschwörungsideologen und wirtschaftlich motivierte Saboteure potenzielle Nutznießer solcher Technologien.
Natürlich ist OpenAI mit Sora nicht allein verantwortlich für diese Entwicklung. Auch andere Anbieter wie Google oder chinesische Entwickler arbeiten an ähnlichen Videomodellen mit vergleichbaren Fähigkeiten und umgehbaren Sicherheitsrichtlinien.
Doch OpenAI hat mit Abstand die größte Reichweite und drückt die Technologie derzeit mit dem Ziel, einen viralen Hit zu landen, in den Markt. Die Sora-2-App wurde innerhalb von fünf Tagen mehr als eine Million Mal heruntergeladen. Nutzer können Videos kostenlos generieren. Genau deshalb trägt OpenAI auch die höchste Verantwortung.
Wie diese Verantwortung interpretiert wird, zeigt sich unter anderem an einem Fall, bei dem Sora generierte Videos mit rassistischen Beleidigungen historischer Persönlichkeiten wie Martin Luther King zwar blockierte, OpenAI dies jedoch mit einem Verweis auf die Meinungsfreiheit relativierte. Das entspricht offenbar dem aktuellen politischen Zeitgeist in den USA.