Ein Audit von NewsGuard zeigt, dass führende chinesische KI-Modelle in 60 Prozent der Fälle pro-chinesische Falschbehauptungen wiederholen oder nicht korrigieren. Westliche Unternehmen müssen sich bewusst sein, dass sich diese Zensur in vielen Formen bei der Generierung von Inhalten widerspiegeln kann.
Fünf der führenden chinesischen KI-Sprachmodelle – Baidus Ernie, DeepSeek, MiniMax, das Alibaba-Modell Qwen und Tencents Yuanbao – verbreiten systematisch Falschinformationen im Sinne der chinesischen Regierung. Das ergab eine Untersuchung des US-Medienwatchdogs NewsGuard, der die Modelle mit zehn bekannten Falschbehauptungen aus staatsnahen chinesischen Medien konfrontierte.
Die getesteten Themen reichten von Taiwans demokratischen Prozessen über die Beziehungen zu den USA bis zu territorialen Streitigkeiten im Südchinesischen Meer. Im Englischen lieferten die Modelle in 60 Prozent der Fälle entweder eine falsche Antwort oder wichen der Frage aus. Im Mandarin lag die Fehlerquote mit 66,67 Prozent noch höher. Nur ein Drittel der Antworten war korrekt.

Laut NewsGuard deutet das nahezu identische Antwortverhalten in beiden Sprachen darauf hin, dass die pro-chinesischen Narrative tief in die Modelle integriert sind – unabhängig von Sprache oder Formulierung der Prompts.
Falschinformationen zu Taiwan und Südchinesischem Meer
Besonders deutlich zeigte sich die Ausrichtung bei Taiwan-Fragen: So behauptete etwa Yuanbao, Taipeh betreibe vor einer Rückrufwahl "politische Manipulation" beim Versand von Wahlbenachrichtigungen. Qwen bestätigte angeblich fehlende Benachrichtigungen – obwohl die Wahlkommission das Gegenteil angekündigt hatte.
Auch zur Frage, ob Präsident Lai Ching-te einen chinesischen Ausweis besitze, wichen die Modelle aus und wiederholten stattdessen Pekings Linie, Taiwan sei Teil Chinas und habe keinen eigenen Präsidenten.
Beim Streit um das Riff Tiexian Jiao (Sandy Cay) im Südchinesischen Meer übernahmen alle fünf Modelle die chinesische Sichtweise und blendeten die Position der Philippinen aus.

Zum Vergleich testete NewsGuard zehn westliche KI-Modelle – darunter ChatGPT, Claude, Gemini, Grok und Perplexity – mit zwei der zehn Falschbehauptungen. Fast alle Modelle widersprachen den Aussagen, lieferten zusätzliche Quellen und präsentierten unterschiedliche Perspektiven. Ausnahme war in einem Fall Metas Llama.
Autoritäres Umfeld spiegelt sich im Modellverhalten
NewsGuard sieht in den Ergebnissen ein deutliches Zeichen dafür, wie stark das politische Umfeld die Funktionsweise von KI-Systemen beeinflusst. Modelle, die unter autoritären Bedingungen entwickelt werden, reproduzieren staatliche Interessen. Die fünf untersuchten chinesischen Modelle sind unter anderem in Plattformen wie WeChat und Taobao integriert und erreichen weltweit Millionen Nutzer.
Aufgrund niedriger Kosten und Open-Source-Architekturen finden sie zunehmend auch bei Organisationen im Nahen Osten und im Westen Anwendung – was laut NewsGuard die Gefahr birgt, dass staatlich gelenkte Narrative normalisiert werden. Auch OpenAI-Chef Sam Altman warnte davor, dass Import und Export von KI gleichbedeutend mit dem Import und Export kultureller Werte ist.
Ein Beispiel für die Auswirkungen ist der E-Book-Reader-Hersteller Boox, dessen KI-Assistent nach dem Umstieg auf ein chinesisches Modell Zensurverhalten zeigt, wie die Blockade des Begriffs "Winnie Pooh" oder die Leugnung des Völkermords an den Uiguren. Der Hersteller stellte nach öffentlicher Kritik wieder auf ein OpenAI-Modell um.
Überraschend sind die Ergebnisse von NewsGuard nicht: Es ist bekannt, dass die chinesische Regierung Unternehmen verpflichtet, ihre Modelle einem Prüfprozess zu unterziehen, bei dem besonders auf sensible politische Themen geachtet wird.
Auch Tools wie der chinesische Videogenerator Kling zeigen, dass chinesische KI-Modelle Inhalte blockieren, die nicht mit der politischen Agenda der Regierung übereinstimmen, während sie gleichzeitig andere politisch problematische Inhalte wie "das Weiße Haus in Flammen" generieren können.
Die USA bewegen sich unter der Regierung Trump in eine ähnliche Richtung: David Sacks und Sriram Krishnan, Berater von Donald Trump, fordern Regulierungen, die sich gegen sogenannte „woke“ KI-Modelle richten. Ihr erklärtes Ziel ist es, KI-Systeme von politischen Einflüssen freizuhalten – in der Praxis bedeutet das jedoch, Modelle in Richtung ihrer eigenen politischen Perspektive zu lenken.