Inhalt
summary Zusammenfassung

Chinesische Behörden testen die Antworten von KI-Modellen, um sicherzustellen, dass sie der Parteilinie entsprechen. Unternehmen müssen ihre Systeme anpassen, um der Zensur zu entgehen.

Anzeige

Die chinesische Cyberspace Administration (CAC) verpflichtet Tech-Unternehmen wie ByteDance und Alibaba, ihre KI-Modelle einer staatlichen Prüfung zu unterziehen. Ziel ist es, dass die Systeme "sozialistische Kernwerte verkörpern", wie mehrere mit dem Prozess vertraute Personen der Financial Times berichten.

Bei den Tests müssen die Sprachmodelle auf eine Reihe von Fragen antworten, von denen sich viele auf politisch sensible Themen und Präsident Xi Jinping beziehen. Die Prüfung umfasst auch eine Überprüfung der Trainingsdaten und Sicherheitsprozesse.

Ein Mitarbeiter eines KI-Unternehmens in Hangzhou berichtete, dass die Tests Monate dauerten und "Raten und Anpassen" erforderten. Die Unternehmen müssen auch Tausende von sensiblen Schlüsselwörtern und Fragen sammeln, die die "sozialistischen Grundwerte" verletzen. Die Datenbank soll wöchentlich aktualisiert werden.

Anzeige
Anzeige

Es reicht nicht aus, einfach viele Fragen zu blockieren: Die Modelle dürfen bei den Sicherheitstests nicht mehr als fünf Prozent der Fragen ablehnen und gleichzeitig besonders sensible Themen wie das Tian'anmen-Massaker zuverlässig vermeiden.

Einige Unternehmen haben ausgeklügelte Systeme entwickelt, um problematische Antworten in Echtzeit zu ersetzen. TikTok-Betreiber ByteDance soll in dieser Hinsicht am weitesten fortgeschritten sein. Ein Forschungslabor der Fudan-Universität bewertete den Chatbot des Unternehmens mit einer "Sicherheitskonformitätsrate" von 66,4 Prozent - deutlich höher als GPT-4o mit 7,1 Prozent.

China will kontrollieren, was schwer zu kontrollieren ist

Fang Binxing, bekannt als "Vater der Großen Firewall" in China, soll ein System von Sicherheitsprotokollen für KI-Modelle entwickeln, das landesweit eingeführt werden soll. Auf einer kürzlich abgehaltenen Technologiekonferenz soll er eine "Echtzeit-Überwachung der Online-Sicherheit" gefordert haben.

Peter Gostev, Leiter der KI-Abteilung bei Moonpig, hat kürzlich eine einfache Möglichkeit demonstriert, ein chinesisches Sprachmodell (LLM) dazu zu bringen, über heikle Themen wie den Tiananmen-Vorfall zu sprechen.

Er manipulierte den öffentlichen Chatbot von DeepSeek, indem er Sprachen mischte und Wörter austauschte. Ohne diese Methode würde der Chatbot Nachrichten zu Tabuthemen löschen.

Empfehlung

Das zeigt das Dilemma Chinas: Es will im Bereich KI weltweit führend sein, aber die von KI-Modellen generierten Inhalte kontrollieren - eine Technologie, deren Wesen es ist, sich der Kontrolle zu widersetzen. China muss einen Weg finden, damit umzugehen, ohne den Fortschritt der KI zu bremsen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Die Cyberspace Administration of China (CAC) führt verpflichtende Prüfungen der großen Sprachmodelle von Tech-Unternehmen und KI-Start-ups durch, um sicherzustellen, dass diese "sozialistische Grundwerte verkörpern".
  • Der Prozess beinhaltet das Testen der Antworten eines LLM auf eine Vielzahl von Fragen, von denen sich viele auf politisch sensible Themen und Präsident Xi Jinping beziehen.
  • Unternehmen müssen problematische Informationen aus Trainingsdaten entfernen und wöchentlich aktualisierte Datenbanken mit Tausenden von sensiblen Schlüsselwörtern erstellen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!