Claude-Nutzer müssen dem KI-Datentraining jetzt aktiv widersprechen
Anthropic führt neue Datenschutzregeln für seinen Chatbot Claude ein. Nutzer der Free-, Pro- und Max-Versionen müssen nun aktiv widersprechen, wenn sie nicht wollen, dass ihre Gespräche zum KI-Training genutzt werden.
Die Einstellung gilt nur für neue oder fortgesetzte Chats und kann jederzeit angepasst werden. Wird die Nutzung erlaubt, speichert Anthropic die Daten bis zu fünf Jahre, um Modelle und Sicherheitssysteme zu verbessern. Ohne Zustimmung bleibt es bei einer 30-Tage-Frist. Die Änderungen betreffen nicht Claude for Work, Education, Gov oder API-Nutzung über Partner wie Amazon Bedrock. Nutzer haben bis zum 28. September 2025 Zeit, ihre Entscheidung zu treffen. Danach ist eine Auswahl Pflicht, um Claude weiterzuverwenden.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren