Anthropic führt neue Datenschutzregeln für seinen Chatbot Claude ein. Nutzer der Free-, Pro- und Max-Versionen müssen nun aktiv widersprechen, wenn sie nicht wollen, dass ihre Gespräche zum KI-Training genutzt werden.

Anzeige

Die Einstellung gilt nur für neue oder fortgesetzte Chats und kann jederzeit angepasst werden. Wird die Nutzung erlaubt, speichert Anthropic die Daten bis zu fünf Jahre, um Modelle und Sicherheitssysteme zu verbessern. Ohne Zustimmung bleibt es bei einer 30-Tage-Frist. Die Änderungen betreffen nicht Claude for Work, Education, Gov oder API-Nutzung über Partner wie Amazon Bedrock. Nutzer haben bis zum 28. September 2025 Zeit, ihre Entscheidung zu treffen. Danach ist eine Auswahl Pflicht, um Claude weiterzuverwenden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!