Short
Anthropic führt neue Datenschutzregeln für seinen Chatbot Claude ein. Nutzer der Free-, Pro- und Max-Versionen müssen nun aktiv widersprechen, wenn sie nicht wollen, dass ihre Gespräche zum KI-Training genutzt werden.
Die Einstellung gilt nur für neue oder fortgesetzte Chats und kann jederzeit angepasst werden. Wird die Nutzung erlaubt, speichert Anthropic die Daten bis zu fünf Jahre, um Modelle und Sicherheitssysteme zu verbessern. Ohne Zustimmung bleibt es bei einer 30-Tage-Frist. Die Änderungen betreffen nicht Claude for Work, Education, Gov oder API-Nutzung über Partner wie Amazon Bedrock. Nutzer haben bis zum 28. September 2025 Zeit, ihre Entscheidung zu treffen. Danach ist eine Auswahl Pflicht, um Claude weiterzuverwenden.