Inhalt
summary Zusammenfassung

Anthropics neue Datenrichtlinie nutzt rechtlich fragwürdiges Dark Pattern.

Anzeige

Anthropic stellt seine Datenschutzpraxis für die KI-Chatplattform Claude um – und fordert von Nutzerinnen und Nutzern der Consumer-Produkte (Claude Free, Pro, Max sowie Claude Code) nun eine Entscheidung: Wer nicht bis zum 28. September 2025 aktiv widerspricht, erlaubt dem Unternehmen, neue sowie wiederaufgenommene Chats für das KI-Training zu verwenden. Bei Zustimmung verlängert sich zudem die Speicherfrist von 30 Tagen auf bis zu fünf Jahre. Unternehmens-, Bildungs-, Regierungs- und API-Konten sind davon ausgenommen.

Bei der Umstellung seiner Datenschutzpraxis setzt Anthropic auf ein manipulatives Interface-Design, ein sogenanntes Dark Pattern. Bestehenden Claude-Nutzern wird ein Pop-up mit einem dominanten, schwarz hinterlegten "Akzeptieren"-Button präsentiert, während der Schalter zur Freigabe der Daten für das KI-Training klein und standardmäßig aktiviert ist. Diese Gestaltung, wie sie im Screenshot zu sehen ist, zielt darauf ab, die schnelle, unüberlegte Zustimmung der Nutzer auszunutzen.

Bild: Screenshot by THE DECODER

Das zugrunde liegende Prinzip – voreingestellte Trainingsfreigabe mit Opt-out – ist nicht neu. OpenAI geht bei ChatGPT ähnlich vor: Auch dort ist die Option, Nutzereingaben für das Modelltraining zu verwenden, standardmäßig aktiviert und muss manuell deaktiviert werden. Während OpenAI dieses Muster von Beginn an still etabliert hat, führt Anthropic die Trainingsnutzung jetzt neu ein und muss daher eine aktive Einwilligung einholen.

Anzeige
Anzeige

Neue Richtlinie, altes Muster – mit Dark Patterns

Claude setzt dafür auf ein auffälliges Pop-up mit einem großflächigen, schwarz hinterlegten „Akzeptieren“-Button. Der Schalter zur Datenfreigabe ist unauffällig platziert, standardmäßig aktiviert und mit positivem Framing („Du kannst helfen…“) versehen. Ein blasser „Nicht jetzt“-Button und schwer auffindbare Hinweise zur späteren Änderung der Einstellung runden das manipulative Interface ab.

Solche Interface-Tricks – auch als Dark Patterns bekannt – sind laut Datenschutz-Grundverordnung (DSGVO) und dem Europäischen Gerichtshof unzulässig, wenn es um die Einholung einer Einwilligung zur Datenverarbeitung geht. Vorangekreuzte Kästchen gelten demnach nicht als gültige Zustimmung.

Auch der Europäische Datenschutzausschuss (EDPB) hat in seinen Leitlinien zu "deceptive design patterns" betont, dass eine Einwilligung freiwillig, informiert und eindeutig sein muss. Das aktuelle Design von Claude untergräbt diese Anforderungen recht deutlich. Anthropic könnte daher schon bald ins Visier von Datenschützern geraten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Anthropic nutzt bei der Einführung seiner neuen Datenrichtlinie für Claude ein manipulierendes Interface-Design, bekannt als Dark Pattern: Nutzer erhalten ein Pop-up mit einem großen „Akzeptieren“-Button, während der Schalter zur Datenfreigabe klein, unauffällig und standardmäßig aktiviert ist.
  • Dieses Vorgehen erinnert an OpenAI, wo die Trainingsfreigabe bereits seit Längerem standardmäßig aktiviert ist und manuell deaktiviert werden muss. Bei Anthropic ist die Änderung jedoch neu und erfordert eine aktive Einwilligung der Bestandsnutzer.
  • Solche Dark Patterns widersprechen laut DSGVO und den Leitlinien des Europäischen Datenschutzausschusses den Anforderungen an eine freiwillige, informierte und eindeutige Einwilligung – vorangekreuzte Kästchen sind demnach unzulässig. Datenschützer könnten daher gegen Anthropic vorgehen.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!