Inhalt
summary Zusammenfassung

Ein Audit von NewsGuard zeigt, dass führende chinesische KI-Modelle in 60 Prozent der Fälle pro-chinesische Falschbehauptungen wiederholen oder nicht korrigieren. Westliche Unternehmen müssen sich bewusst sein, dass sich diese Zensur in vielen Formen bei der Generierung von Inhalten widerspiegeln kann.

Anzeige

Fünf der führenden chinesischen KI-Sprachmodelle – Baidus Ernie, DeepSeek, MiniMax, das Alibaba-Modell Qwen und Tencents Yuanbao – verbreiten systematisch Falschinformationen im Sinne der chinesischen Regierung. Das ergab eine Untersuchung des US-Medienwatchdogs NewsGuard, der die Modelle mit zehn bekannten Falschbehauptungen aus staatsnahen chinesischen Medien konfrontierte.

Die getesteten Themen reichten von Taiwans demokratischen Prozessen über die Beziehungen zu den USA bis zu territorialen Streitigkeiten im Südchinesischen Meer. Im Englischen lieferten die Modelle in 60 Prozent der Fälle entweder eine falsche Antwort oder wichen der Frage aus. Im Mandarin lag die Fehlerquote mit 66,67 Prozent noch höher. Nur ein Drittel der Antworten war korrekt.

Balkendiagramm: Prozentualer Anteil falscher Infos bei DeepSeek, MiniMax, Qwen, Yuanbao und Ernie in Englisch und Chinesisch.
Die Grafik macht deutlich, wie stark propagandistische Falschinformationen je nach Sprache und KI-Modell variieren; insbesondere Yuanbao verbreitet im Chinesischen die meisten propagandistischen Falschinformatonen. | Bild: Newsguard

Laut NewsGuard deutet das nahezu identische Antwortverhalten in beiden Sprachen darauf hin, dass die pro-chinesischen Narrative tief in die Modelle integriert sind – unabhängig von Sprache oder Formulierung der Prompts.

Anzeige
Anzeige

Falschinformationen zu Taiwan und Südchinesischem Meer

Besonders deutlich zeigte sich die Ausrichtung bei Taiwan-Fragen: So behauptete etwa Yuanbao, Taipeh betreibe vor einer Rückrufwahl "politische Manipulation" beim Versand von Wahlbenachrichtigungen. Qwen bestätigte angeblich fehlende Benachrichtigungen – obwohl die Wahlkommission das Gegenteil angekündigt hatte.

Auch zur Frage, ob Präsident Lai Ching-te einen chinesischen Ausweis besitze, wichen die Modelle aus und wiederholten stattdessen Pekings Linie, Taiwan sei Teil Chinas und habe keinen eigenen Präsidenten.

Beim Streit um das Riff Tiexian Jiao (Sandy Cay) im Südchinesischen Meer übernahmen alle fünf Modelle die chinesische Sichtweise und blendeten die Position der Philippinen aus.

Tabelle mit Antworten von DeepSeek, MiniMax, Qwen, Yuanbao und Ernie zur Frage der chinesischen Einnahme von Sandy Cay.
KI-Modelle aus China geben in ihren Antworten zur Frage der Einnahme von Sandy Cay übereinstimmend propagandistische Sichtweisen der chinesischen Regierung wieder und spiegeln dabei verschiedene Nuancen offizieller Narrative wider. | Bild: Newsguard

Zum Vergleich testete NewsGuard zehn westliche KI-Modelle – darunter ChatGPT, Claude, Gemini, Grok und Perplexity – mit zwei der zehn Falschbehauptungen. Fast alle Modelle widersprachen den Aussagen, lieferten zusätzliche Quellen und präsentierten unterschiedliche Perspektiven. Ausnahme war in einem Fall Metas Llama.

Autoritäres Umfeld spiegelt sich im Modellverhalten

NewsGuard sieht in den Ergebnissen ein deutliches Zeichen dafür, wie stark das politische Umfeld die Funktionsweise von KI-Systemen beeinflusst. Modelle, die unter autoritären Bedingungen entwickelt werden, reproduzieren staatliche Interessen. Die fünf untersuchten chinesischen Modelle sind unter anderem in Plattformen wie WeChat und Taobao integriert und erreichen weltweit Millionen Nutzer.

Empfehlung

Aufgrund niedriger Kosten und Open-Source-Architekturen finden sie zunehmend auch bei Organisationen im Nahen Osten und im Westen Anwendung – was laut NewsGuard die Gefahr birgt, dass staatlich gelenkte Narrative normalisiert werden. Auch OpenAI-Chef Sam Altman warnte davor, dass Import und Export von KI gleichbedeutend mit dem Import und Export kultureller Werte ist.

Ein Beispiel für die Auswirkungen ist der E-Book-Reader-Hersteller Boox, dessen KI-Assistent nach dem Umstieg auf ein chinesisches Modell Zensurverhalten zeigt, wie die Blockade des Begriffs "Winnie Pooh" oder die Leugnung des Völkermords an den Uiguren. Der Hersteller stellte nach öffentlicher Kritik wieder auf ein OpenAI-Modell um.

Überraschend sind die Ergebnisse von NewsGuard nicht: Es ist bekannt, dass die chinesische Regierung Unternehmen verpflichtet, ihre Modelle einem Prüfprozess zu unterziehen, bei dem besonders auf sensible politische Themen geachtet wird.

Auch Tools wie der chinesische Videogenerator Kling zeigen, dass chinesische KI-Modelle Inhalte blockieren, die nicht mit der politischen Agenda der Regierung übereinstimmen, während sie gleichzeitig andere politisch problematische Inhalte wie "das Weiße Haus in Flammen" generieren können.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die USA bewegen sich unter der Regierung Trump in eine ähnliche Richtung: David Sacks und Sriram Krishnan, Berater von Donald Trump, fordern Regulierungen, die sich gegen sogenannte „woke“ KI-Modelle richten. Ihr erklärtes Ziel ist es, KI-Systeme von politischen Einflüssen freizuhalten – in der Praxis bedeutet das jedoch, Modelle in Richtung ihrer eigenen politischen Perspektive zu lenken.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Audit von NewsGuard zeigt, dass fünf führende chinesische KI-Sprachmodelle in 60 Prozent der Fälle pro-chinesische Falschbehauptungen wiederholen oder nicht korrigieren, auch in englischer Sprache.
  • Die Modelle übernehmen systematisch die offiziellen Narrative Pekings, insbesondere bei sensiblen Themen wie Taiwan und dem Südchinesischen Meer, während westliche KI-Modelle im Vergleich Falschbehauptungen widersprechen und verschiedene Perspektiven bieten.
  • NewsGuard warnt, dass das politische Umfeld die Arbeitsweise von KI-Systemen prägt und der Einsatz chinesischer Modelle auch in westlichen Organisationen die Verbreitung staatlich gelenkter Erzählungen begünstigen kann.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!