Inhalt
summary Zusammenfassung

Update vom 29. Dezember 2024:

Anzeige

Eine Umgehung des Content-Filters per Prompt ist möglich und zeigt, dass Deepseek in V3 ausgewogenere oder chinakritische Antworten gezielt unterdrückt. So gibt das LLM etwa die westliche Sicht der Ereignisse auf dem Tiananmen-Platz detailliert wieder, wenn es aufgefordert wird, zwischen jeden Buchstaben einen (.) zu setzen.

Bild: via Reddit

Der einfache Hack wiederum zeigt, vor welcher Herausforderung die chinesische Regierung steht, wenn sie die auf Wahrscheinlichkeiten basierende und damit oft unberechenbare generative KI ebenso umfassend kontrollieren will wie die öffentliche Kommunikation in China im Allgemeinen.

Das gilt umso mehr, wenn chinesische Modelle beim Training auch westliche Daten sehen. So wurde Deepseek-V3 höchstwahrscheinlich mit ChatGPT-Daten vor- oder nachtrainiert. Die CCP arbeitet daher auch an einem eigenen Datensatz, der aber in dem für ein Basis-LLM-Training erforderlichen Umfang kaum zur Verfügung stehen dürfte.

Anzeige
Anzeige

Ursprünglicher Artikel vom 28. Dezember 2024:

Das neue chinesische Sprachmodell Deepseek V3 überzeugt technisch und preislich, zeigt aber wie andere chinesische KI-Modelle deutliche Spuren staatlicher Zensur. Für westliche Anwender könnte das ein Ausschlusskriterium sein.

Mit V3 hat Deepseek sein bisher leistungsfähigstes Sprachmodell vorgestellt. Mit 671 Milliarden Parametern und einem Training auf 14,8 Billionen Token kann es in Benchmarks teilweise sogar mit proprietären Modellen wie GPT-4o und Claude 3.5 mithalten, bei deutlich geringeren Trainings- und Betriebskosten.

Doch Tests zeigen: Wie alle chinesischen KI-Modelle unterliegt auch Deepseek V3 staatlicher Zensur. Im Chat-Interface verweigert das Modell Antworten auf kritische Fragen zur Kommunistischen Partei Chinas, zu Staatspräsident Xi Jinping oder zu den Ereignissen auf dem Tiananmen-Platz. Stattdessen gibt es nur generische Propaganda von sich.

Dunkles Chat-Interface zeigt drei Frage-Antwort-Paare zum Tiananmen-Platz mit zunehmend ausweichenden Antworten.
Der Chat-Dialog zum Tiananmen-Platz zeigt die typische Zensur-Strategie der Umdeutung: Auf zunehmend kritische Fragen folgen erst beschönigende Darstellungen der Geschichte, dann Ablenkung auf Erfolge und schließlich eine Betonung von "Stabilität und Harmonie". | Bild: Screenshot via THE DECODER
Chat-Screenshot zeigt zwei propagandistische Antworten auf kritische Fragen zur Kommunistischen Partei Chinas.
Auf direkte Fragen nach Kritik an der KPCh antwortet das System mit reiner Partei-Propaganda: Wirtschaftserfolge, Volkswohlstand und "Sozialismus chinesischer Prägung" werden als einzige Narrative zugelassen. | Bild: Screenshot via THE DECODER
Kurzer Chat-Dialog mit direkter Antwortverweigerung auf Frage nach Kritik an Xi Jinping.
Bei der Frage nach Kritik an Xi Jinping zeigt sich die härteste Form der Zensur: Das System verweigert jegliche inhaltliche Auseinandersetzung und bricht das Gespräch aktiv ab. Angeblich arbeitet China an einem eigenen Xi-Jinping-LLM. | Bild: Screenshot via THE DECODER

Anders verhält sich das Modell bei Fragen zu Nordkorea, Russlands Invasion in der Ukraine, Vladimir Putin oder Donald Trump. Hier äußert es sich kritisch oder versucht zumindest, ausgewogen zu antworten. Die Zensur beschränkt sich derzeit also offenbar gezielt auf chinakritische Themen.

Empfehlung
Chat-Dialog listet Menschenrechtsverletzungen und Bedrohungen durch Nordkorea.
Die deutliche Kritik an Nordkorea unterstreicht, dass das System derzeit nur bei China-bezogener Kritik zensiert. | Bild: Screenshot via THE DECODER
Chat-Interface mit kritischer Bewertung von Trumps Amtszeit und Führungsstil.
Bei Staatschefs anderer Länder ist Deepseek-V3 durchaus diskussionsbereit und übt Kritik.| Bild: Screenshot via THE DECODER
Chat-Dialog mit direkter Kritik an Putins autoritärer Führung und Außenpolitik.
Bei Putin benennt das System klar autoritäre Strukturen und völkerrechtswidrige Handlungen. | Bild: Screenshot via THE DECODER
Chat-Screenshot mit kurzer, eindeutiger Verurteilung des russischen Angriffskriegs.
Die klare Verurteilung der russischen Invasion zeigt die Fähigkeit des Systems, bei nicht-chinesischen Themen eindeutig Position zu beziehen. | Bild: Screenshot via THE DECODER

Staatliche LLM-Kontrolle als Standard

Die Beispiele zeigen, dass in China ein expliziter staatlicher Eingriff in die KI-Produktion mit anschließender Kontrolle und Freigabe Standard ist. KI-Modelle müssen vor ihrer Veröffentlichung auf die Einhaltung "sozialistischer Werte" geprüft werden.

Ein aktuelles Beispiel ist der E-Book-Reader-Hersteller Boox: Nach dem Wechsel von Microsoft Azure OpenAI auf ein chinesisches Sprachmodell blockiert dessen KI-Assistent sogar Eingaben mit dem Begriff "Winnie Pooh" - eine in China zensierte Anspielung auf Präsident Xi Jinping. Auch Kritik an Chinas Verbündeten wie Russland wird hier zensiert oder verdreht.

Konsequenzen für westliche Anwender

Für westliche Anwendungsszenarien dürften chinesische Modelle damit trotz ihrer technischen Leistungsfähigkeit oft ausscheiden. Wer sie einsetzt, implementiert automatisch auch chinesische Propaganda und Werte in die eigenen KI-Systeme.

Zwar haben auch westliche Modelle einen entsprechenden Bias, der Umfang der Einflussnahme ist in China jedoch ein anderer: Hier greift der Staat direkt in die Entwicklung ein und kontrolliert die Ergebnisse.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Deepseek hat mit V3 sein bisher leistungsfähigstes Sprachmodell mit 671 Milliarden Parametern vorgestellt, das in Benchmarks teilweise mit proprietären Modellen wie GPT-4o und Claude 3.5 mithalten kann, bei deutlich geringeren Trainings- und Betriebskosten.
  • Tests zeigen jedoch, dass Deepseek V3 wie alle chinesischen KI-Modelle staatlicher Zensur unterliegt. Es verweigert Antworten auf kritische Fragen zur Kommunistischen Partei Chinas, zu Präsident Xi Jinping oder zu den Ereignissen auf dem Tiananmen-Platz und gibt stattdessen generische Propaganda von sich.
  • Der Fall verdeutlicht, dass in China ein expliziter staatlicher Eingriff in die KI-Produktion mit anschließender Kontrolle Standard ist. Für westliche Anwendungsszenarien dürften chinesische Modelle trotz ihrer technischen Leistungsfähigkeit oft ausscheiden, da sie automatisch chinesische Propaganda und Werte implementieren.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!