Inhalt
summary Zusammenfassung

Deepseek gibt unsichereren Code aus, wenn Anfragen Bezug zu Falun Gong, Tibet oder Taiwan haben.

Anzeige

Die chinesische KI-Plattform DeepSeek steht nach einer Untersuchung des US-Sicherheitsunternehmens Crowdstrike im Fokus: Laut einem Bericht der Washington Post generiert das System je nach Anfrage unterschiedlich sicheren Programmcode – insbesondere bei Projekten, die aus Sicht der chinesischen Regierung als politisch sensibel gelten.

In den Tests stellte Crowdstrike nahezu identische Anfragen auf Englisch. Gefordert war jeweils Hilfestellung beim Schreiben von Programmen, etwa für industrielle Steuerungssysteme. Dabei zeigten sich deutliche Unterschiede: Während knapp 23 Prozent der Standardantworten unsicheren oder fehlerhaften Code enthielten, stieg die Quote auf über 42 Prozent, wenn die Projekte gezielt der Terrorgruppe Islamischer Staat zugeordnet wurden. Doch auch bei Anwendungen, die Tibet, Taiwan oder der verbotenen spirituellen Bewegung Falun Gong zugeschrieben wurden, lieferte Deepseek häufiger schwächeren Code.

Der Effekt zeigte sich auch in der kompletten Ablehnung von Anfragen: Deepseek lehnte in 61 Prozent der Fälle Anfragen zum Islamischen Staat komplett ab, bei Falun Gong waren es 45 Prozent. Westliche KI-Systeme verweigern ebenfalls die Mitarbeit bei terroristischen Projekten, akzeptieren jedoch Falun-Gong-Anfragen. Die Bewegung ist im Westen nicht verboten und hat ihr Hauptquartier in den USA. Frühere Studien zeigten außerdem, dass Deepseek bei schriftlichen Fragen zu sensiblen Themen häufig die Sicht der chinesischen Regierung wiedergibt – auch wenn diese nachweislich falsche Informationen enthält.

Anzeige
Anzeige

Politische Einflussnahme oder Trainingseffekt?

Crowdstrike und weitere Experten diskutieren mehrere mögliche Ursachen für dieses Verhalten. So könnte Deepseek Programmvorgaben folgen, die gezielt bestimmte Gruppen ausschließen oder absichtlich in die Irre führen. Eine andere Erklärung sei die Qualität des Trainingsmaterials: Für Regionen wie Tibet existieren möglicherweise weniger hochwertige Programmierquellen.

So oder so: Der politische Hintergrund hat einen Einfluss auf die Code-Qualität. "Das ist ein wirklich interessantes Ergebnis", sagte Helen Toner, Interimsdirektorin des Center for Security and Emerging Technology an der Georgetown University. "Das ist etwas, worüber sich Menschen Sorgen gemacht haben – größtenteils ohne Beweise."

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das US-Sicherheitsunternehmen Crowdstrike hat festgestellt, dass die chinesische KI-Plattform Deepseek bei politisch sensiblen Themen wie Falun Gong, Tibet oder Taiwan unsichereren oder fehlerhaften Code ausgibt als bei neutralen Anfragen.
  • Während Deepseek bei Standardanfragen in rund 23 Prozent der Fälle unsicheren Code liefert, steigt die Quote bei sensiblen Themen deutlich an und erreicht über 42 Prozent bei Projekten mit Bezug zur Terrorgruppe Islamischer Staat; Anfragen zu Falun Gong werden zu 45 Prozent abgelehnt, deutlich häufiger als bei westlichen KI-Systemen.
  • Experten diskutieren, ob gezielte Vorgaben oder die Qualität des Trainingsmaterials für diese Unterschiede verantwortlich sind, betonen aber, dass politische Faktoren einen Einfluss auf die Code-Qualität haben.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!