Inhalt
summary Zusammenfassung

Peter Gostev, Leiter der KI-Abteilung bei Moonpig, hat einen einfachen Weg gefunden, ein chinesisches Sprachmodell (LLM) dazu zu bringen, über Tabuthemen wie den Vorfall auf dem Tiananmen-Platz zu sprechen.

Gostev manipulierte den öffentlichen Chatbot von DeepSeek, indem er Sprachen mischte und bestimmte Wörter austauschte. Er antwortete zunächst auf Russisch, übersetzte seine Nachricht dann ins Englische zurück und brachte so die KI dazu, über die Ereignisse auf dem Platz des Himmlischen Friedens zu sprechen. Ohne diese Methode würde der Chatbot alle Nachrichten zu sensiblen Themen einfach löschen, so Gostev.

Video: Peter Gostev via LinkedIn

Gostevs Beispiel verdeutlicht das Dilemma Chinas, das auf dem Gebiet der KI weltweit führend sein will, gleichzeitig aber eine starke Kontrolle über die von KI-Modellen generierten Inhalte ausüben möchte (siehe unten).

Anzeige
Anzeige

Das Unkontrollierbare kontrollieren

Wenn die bisherige Entwicklung von LLMs jedoch eines gezeigt hat, dann, dass Sprachmodelle nicht verlässlich kontrolliert werden können. Dies liegt in der Natur der Zufälligkeit dieser Modelle, die aufgrund ihrer Größe eine enorme Komplexität aufweisen und deren Funktion bisher nicht richtig verstanden wird.

Selbst beim westlichen Branchenprimus OpenAI kommt es trotz zahlreicher Sicherheitsrichtlinien vor, dass das eigene Sprachmodell unerwünschtes Verhalten zeigt.

Meist genügen dazu einfache Sprachbefehle, im Fachjargon "Prompt Injection" genannt - Programmierkenntnisse sind nicht erforderlich. Mindestens seit GPT-3 sind diese Probleme bekannt, aber bis heute hat sie kein KI-Unternehmen in den Griff bekommen.

Im Klartext: Die chinesische Regierung wird wohl unweigerlich damit konfrontiert werden, dass auch von ihr bereits zugelassene KI-Modelle Inhalte generieren können, die ihren Vorstellungen widersprechen.

Wie wird sie damit umgehen? Es ist schwer vorstellbar, dass die Regierung solche Fehlschläge einfach hinnehmen wird. Andererseits kann sie, will sie den KI-Fortschritt in China nicht völlig ausbremsen, nicht jede Generierung, die ihr politisch nicht passt, mit einem Modellverbot sanktionieren.

Empfehlung

Chinas regulatorische Bestrebungen für große KI-Modelle

Die sicherste Möglichkeit wäre, alle kritischen Themen aus den Datensätzen zu verbannen, mit denen die Modelle trainiert werden. Die Regierung veröffentlichte bereits einen politisch abgestimmten Datensatz für das Training großer Sprachmodelle, der im Sinne der chinesischen Regierung zusammengestellt wurde.

Der Datensatz ist jedoch viel zu klein, um allein damit ein leistungsfähiges großes Sprachmodell zu trainieren. Politische Zensur stünde hier also im Einklang mit der Beschränkung der technischen Möglichkeiten, zumindest beim derzeitigen Stand der Technik. Sollten sich die Skalierungsgesetze bei großen KI-Modellen fortsetzen, wäre die Beschränkung des Datenmaterials für das KI-Training vermutlich ein Wettbewerbsnachteil.

Ende Dezember gab China vier große generative KI-Modelle von Alibaba, Baidu, Tencent und der 360 Group frei, die Chinas offizielles "Large Model Standard Compliance Assessment" bestanden hatten. Bei der Modellfreigabe prüft die chinesische Regierung auch, ob die Modelle den "Grundwerten des Sozialismus" entsprechen.

China hatte im vergangenen Sommer erstmals Richtlinien für generative KI-Dienste veröffentlicht. Unter anderem müssen Organisationen, die KI-Systeme öffentlich anbieten, einen Sicherheitsüberprüfungsprozess durchlaufen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Peter Gostev, Leiter der KI-Abteilung bei Moonpig, hat einen chinesischen Chatbot so manipuliert, dass er Tabuthemen wie den Tiananmen-Vorfall ansprach. Dazu musste er nur die Sprachen mischen und bestimmte Wörter austauschen.
  • Dieses Beispiel verdeutlicht das Dilemma Chinas, das einerseits im Bereich der KI weltweit führend sein will, andererseits aber eine starke Kontrolle über die von KI-Modellen generierten Inhalte ausüben möchte.
  • Trotz regulatorischer Bemühungen und politisch abgestimmter Datensätze für das Training großer Sprachmodelle wird die chinesische Regierung unweigerlich mit unerwünschten Inhalten konfrontiert werden und einen Weg finden müssen, damit umzugehen, ohne den KI-Fortschritt im Land zu bremsen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!