KI-Modelle in China müssen vorrangig eines leisten: die Werte der Partei korrekt abbilden. Ein neues LLM soll direkt auf der Philosophie von Xi Jinping basieren.
Das China Cyberspace Research Institute, das der nationalen Regulierungsbehörde Cyberspace Administration of China untersteht, hat laut South China Morning Post ein eigenes maschinelles Sprachmodell entwickelt.
Das Modell basiert auf der Philosophie von Präsident Xi Jinping und anderen ausgewählten Cyberspace-Themen, die mit der offiziellen Regierungslinie übereinstimmen. Nach Angaben der Behörde kann das Modell eine Vielzahl von Nutzerbedürfnissen erfüllen, wie die Beantwortung von Fragen, die Erstellung von Berichten und die Übersetzung zwischen Chinesisch und Englisch.
Im Gegensatz zu anderen Systemen basiert das Modell auf einer ausgewählten Wissensbasis mit lokal generierten Daten und ist nicht Open Source, was nach Ansicht der Verwaltung Sicherheit und Zuverlässigkeit gewährleistet. Es wurde im WeChat Account des Magazins der Cyberspace Administration of China vorgestellt.
"Die Professionalität und Autorität des Korpus garantiert die professionelle Qualität der generierten Inhalte", heißt es in dem Beitrag.
Das System befindet sich noch in der internen, lokalen Testphase am China Cyberspace Research Institute und ist bisher nicht öffentlich zugänglich.
China will das Unberechenbare berechenbar machen
Chinesische Unternehmen müssen bei der Entwicklung ihrer eigenen LLMs die regulatorischen Kontrollen der Regierung einhalten und sicherstellen, dass die generierten Inhalte den Vorgaben der Regierung entsprechen.
Das Zentralkomitee der Kommunistischen Partei hat außerdem eine Anweisung herausgegeben, in der verpflichtende Lernaktivitäten für Parteimitglieder gefordert werden, um sie besser mit den Ideen von Xi Jinping vertraut zu machen, berichtet die SCMP.
Wie für alle anderen Hersteller und Anbieter von LLMs ist es auch für China eine schwierige Aufgabe, die Nützlichkeit von Sprachmodellen und ihre Freiheiten gegeneinander abzuwägen. Selbst bei führenden KI-Modellen mit starken Sicherheitseinschränkungen kommt es immer wieder zu unerwünschten Ergebnissen, die auf relativ einfachen Hacks und Prompt Injections beruhen.
Der beste Ansatz zur Vermeidung unerwünschter Ergebnisse scheint die Beschränkung des Trainingsmaterials zu sein. Daher entwickelt China einen LLM-Datensatz, der nur Fragmente enthält, die den Werten der Parteien entsprechen.
Solche Einschränkungen des Trainingsmaterials könnten jedoch die Leistungsfähigkeit einer möglichen Zukunftstechnologie beeinträchtigen und China im KI-Wettrennen mit den USA zurückwerfen. Ein Dilemma für eine restriktive Politik.