Der chinesische E-Book-Reader-Hersteller Boox hat seinen KI-Assistenten mit einem stark zensierten Sprachmodell ausgestattet, das sich weigert, Kritik an China oder dessen Verbündeten zu äußern.
Laut eines Berichts des Reddit-Nutzers HIVVIH hat der chinesische E-Book-Reader-Hersteller Onyx International Inc., bekannt durch die Marke Boox, das bisher verwendete Microsoft Azure GPT-3 durch ein Sprachmodell des TikTok-Mutterkonzerns Bytedance ersetzt. Das neue Modell zeigt deutliche Anzeichen staatlicher Zensur.
Der KI-Assistent verweigert etwa jegliche kritische Auseinandersetzung mit China und dessen Verbündeten wie Russland, dem Assad-Regime in Syrien oder Nordkorea. Das Modell blockiert sogar Eingaben, die "Winnie Pooh" enthalten - eine in China zensierte Anspielung auf Präsident Xi Jinping.
Auf kritische Fragen zu Russland antwortet das Modell beispielsweise ausweichend mit dem Verweis auf "positive Beiträge" und die angeblich wichtige Rolle Russlands für die internationale Sicherheit. Im Kontext des Krieges in der Ukraine unterstützt der Assistent die russische Propaganda, wonach ein möglicher NATO-Beitritt ein Sicherheitsrisiko für Russland darstellt. Es handele sich um eine "komplexe geopolitische" Situation und sicherheitspolitische Dynamiken hätten den Krieg ausgelöst.
Ein User-Beitrag im Reddit-Forum des Herstellers, der auf die Zensur aufmerksam machte, wurde gelöscht. Eine offizielle Stellungnahme steht aus. Boox scheint das Problem jedoch erkannt zu haben: Erste Nutzer berichten, dass der KI-Assistent derzeit nicht verfügbar ist.
KI-Import bedeutet auch Werteimport
Es ist unklar, ob Boox aufgrund politischen Drucks den LLM gewechselt hat, oder ob der Firma einfach nicht bewusst war, dass der neue chinesische LLM so stark zensiert ist, oder diese Zensur Menschen im Westen stören könnte.
Der Fall zeigt jedoch exemplarisch, dass Gesellschaften mit Sprachmodellen nicht nur Technologie importieren, sondern auch die Kultur und die Sichtweise aus den Trainingsdaten, mit denen die Modelle erstellt wurden. OpenAI-CEO Sam Altman warnte in diesem Zusammenhang kürzlich, dass der Import von KI-Technologie auch ein Import von Werten sei.
In China müssen KI-Modelle vor ihrer Veröffentlichung auf die Einhaltung "sozialistischer Werte" geprüft werden und dürfen keine von der Regierungslinie abweichenden Inhalte generieren.
Ein bekannt gewordenes Beispiel offensichtlicher Zensur ist die Bild-KI ERNIE-ViLG des chinesischen Unternehmens Baidu, die Anfragen zum Tian'anmen-Platz blockiert. Auch der Videogenerator Kling zeigt, wie generative KI Fake News und Werteverzerrung begünstigt: Video-Prompts zu "Tiananmen Square Protests" brechen mit einer Fehlermeldung ab, ein Video vom brennenden Weißen Haus generiert das System jedoch.
Der Fall Boox ist ein weiterer Weckruf, genau zu prüfen, welche Werte und Einstellungen in importierten KI-Systemen stecken. Als Reaktion auf diese Entwicklung arbeitet beispielsweise Taiwan an einem eigenen KI-Sprachmodell namens "Taide". Es soll Unternehmen und Behörden eine vom chinesischen Einfluss unabhängige KI-Plattform bieten.