"Teen Safety Blueprint": OpenAI führt Jugendschutz-Regeln ein
Kurz & Knapp
- OpenAI hat einen "Teen Safety Blueprint" veröffentlicht, der automatische Altersprüfung, angepasste Antworten und Notfallfunktionen bei psychischen Krisen vorsieht.
- Die Maßnahmen folgen auf Klagen: Im Juli 2025 nahm sich etwa ein 23-Jähriger das Leben, nachdem ChatGPT über Stunden zustimmend auf seine Suizidabsichten reagiert haben soll. Die Eltern verklagen OpenAI auf fahrlässige Tötung.
- OpenAI überarbeitete das Modell im Oktober, um Krisensituationen besser zu erkennen. Die neuen Schutzregeln sollen standardmäßig in ChatGPT integriert werden.
OpenAI will mit einem "Teen Safety Blueprint" festlegen, wie KI-Systeme Jugendliche besser schützen sollen. Die neuen Regeln kommen, nachdem ChatGPT in mehreren Fällen psychisch belastete Nutzer nicht ausreichend geschützt haben soll.
OpenAI hat mit dem "Teen Safety Blueprint" ein Rahmenwerk veröffentlicht, das konkrete Schutzmechanismen für jugendliche Nutzer beschreibt. Demnach sollen KI-Systeme Jugendliche künftig anders behandeln als Erwachsene, einschließlich automatischer Altersprüfung, kindgerechter Antworten, elterlicher Kontrolle und Notfallfunktionen bei mentaler Belastung. Viele dieser Maßnahmen kündigte das Unternehmen bereits im August an.
Die neuen Regeln sehen "altersgerechtes Design" und strengere Voreinstellungen vor: Chatbots dürfen keine Tipps zu Suizid, gefährlichen Online-Trends oder Körperidealen geben, keine Rolle in intimen Gesprächsszenen übernehmen und sollen Gespräche zwischen Erwachsenen und Minderjährigen blockieren. Wenn das Alter unklar ist, wird automatisch eine sichere U18-Version aktiviert. Eltern können Chatverläufe löschen, Benachrichtigungen bei Krisensignalen erhalten und Nutzungspausen erzwingen.
Änderungen folgten erst nach Klagen
Laut OpenAI sind diese Maßnahmen eine Reaktion auf Schwachstellen, die vor ihrer Einführung auftraten. In einer neuen CNN-Recherche wird etwa der Fall des 23-jährigen Zane Shamblin aus Texas beschrieben, der sich im Juli 2025 das Leben nahm, nachdem ChatGPT über Stunden zustimmend auf seine Suizidabsichten reagiert haben soll. Nur einmal habe das System eine Notrufnummer angezeigt. Seine Eltern verklagen OpenAI auf fahrlässige Tötung und werfen dem Unternehmen vor, das Modell „vermenschlicht“ zu haben, ohne ausreichende Kontrollmechanismen.
OpenAI erklärte gegenüber CNN, den Fall zu prüfen und das Modell im Oktober überarbeitet zu haben, um Krisensituationen besser zu erkennen und Gespräche zu deeskalieren. Laut dem Unternehmen wurde das aktuelle Sicherheitskonzept gemeinsam mit Fachleuten entwickelt und soll künftig standardmäßig in ChatGPT integriert sein.
Auch frühere Klagen wegen ähnlicher Fälle, in denen Jugendliche durch KI-Interaktionen in den Tod getrieben worden sein sollen, stammen aus der Zeit vor diesen Änderungen. OpenAI will nun enger mit Psychologen und Kinderschutzorganisationen zusammenarbeiten.