Peter Gostev, Leiter der KI-Abteilung bei Moonpig, hat einen einfachen Weg gefunden, ein chinesisches Sprachmodell (LLM) dazu zu bringen, über Tabuthemen wie den Vorfall auf dem Tiananmen-Platz zu sprechen.
Gostev manipulierte den öffentlichen Chatbot von DeepSeek, indem er Sprachen mischte und bestimmte Wörter austauschte. Er antwortete zunächst auf Russisch, übersetzte seine Nachricht dann ins Englische zurück und brachte so die KI dazu, über die Ereignisse auf dem Platz des Himmlischen Friedens zu sprechen. Ohne diese Methode würde der Chatbot alle Nachrichten zu sensiblen Themen einfach löschen, so Gostev.
Gostevs Beispiel verdeutlicht das Dilemma Chinas, das auf dem Gebiet der KI weltweit führend sein will, gleichzeitig aber eine starke Kontrolle über die von KI-Modellen generierten Inhalte ausüben möchte (siehe unten).
Das Unkontrollierbare kontrollieren
Wenn die bisherige Entwicklung von LLMs jedoch eines gezeigt hat, dann, dass Sprachmodelle nicht verlässlich kontrolliert werden können. Dies liegt in der Natur der Zufälligkeit dieser Modelle, die aufgrund ihrer Größe eine enorme Komplexität aufweisen und deren Funktion bisher nicht richtig verstanden wird.
Selbst beim westlichen Branchenprimus OpenAI kommt es trotz zahlreicher Sicherheitsrichtlinien vor, dass das eigene Sprachmodell unerwünschtes Verhalten zeigt.
Meist genügen dazu einfache Sprachbefehle, im Fachjargon "Prompt Injection" genannt - Programmierkenntnisse sind nicht erforderlich. Mindestens seit GPT-3 sind diese Probleme bekannt, aber bis heute hat sie kein KI-Unternehmen in den Griff bekommen.
Im Klartext: Die chinesische Regierung wird wohl unweigerlich damit konfrontiert werden, dass auch von ihr bereits zugelassene KI-Modelle Inhalte generieren können, die ihren Vorstellungen widersprechen.
Wie wird sie damit umgehen? Es ist schwer vorstellbar, dass die Regierung solche Fehlschläge einfach hinnehmen wird. Andererseits kann sie, will sie den KI-Fortschritt in China nicht völlig ausbremsen, nicht jede Generierung, die ihr politisch nicht passt, mit einem Modellverbot sanktionieren.
Chinas regulatorische Bestrebungen für große KI-Modelle
Die sicherste Möglichkeit wäre, alle kritischen Themen aus den Datensätzen zu verbannen, mit denen die Modelle trainiert werden. Die Regierung veröffentlichte bereits einen politisch abgestimmten Datensatz für das Training großer Sprachmodelle, der im Sinne der chinesischen Regierung zusammengestellt wurde.
Der Datensatz ist jedoch viel zu klein, um allein damit ein leistungsfähiges großes Sprachmodell zu trainieren. Politische Zensur stünde hier also im Einklang mit der Beschränkung der technischen Möglichkeiten, zumindest beim derzeitigen Stand der Technik. Sollten sich die Skalierungsgesetze bei großen KI-Modellen fortsetzen, wäre die Beschränkung des Datenmaterials für das KI-Training vermutlich ein Wettbewerbsnachteil.
Ende Dezember gab China vier große generative KI-Modelle von Alibaba, Baidu, Tencent und der 360 Group frei, die Chinas offizielles "Large Model Standard Compliance Assessment" bestanden hatten. Bei der Modellfreigabe prüft die chinesische Regierung auch, ob die Modelle den "Grundwerten des Sozialismus" entsprechen.
China hatte im vergangenen Sommer erstmals Richtlinien für generative KI-Dienste veröffentlicht. Unter anderem müssen Organisationen, die KI-Systeme öffentlich anbieten, einen Sicherheitsüberprüfungsprozess durchlaufen.