OpenAI will Jugendliche stärker vor problematischen Inhalten schützen und entwickelt dafür ein System zur Alterserkennung. Datenschutz und Nutzerfreiheit sollen in diesem Zusammenhang zurückstehen.
OpenAI kündigt umfangreiche Maßnahmen an, um die Nutzung von ChatGPT durch Minderjährige stärker zu regulieren. Laut OpenAI stehen dabei drei Prinzipien im Konflikt: Nutzerfreiheit, Datenschutz und Sicherheit. Für Jugendliche soll künftig der Schutz vor potenziell schädlichen Inhalten Vorrang erhalten.
Konkret arbeitet das Unternehmen dabei an einem System, das anhand der Nutzungsmuster das Alter der ChatGPT-Nutzer schätzen soll. Ziel ist es, unter 18-Jährige automatisch in eine eingeschränkte Version der Anwendung zu leiten. Kommt das System zu keinem eindeutigen Ergebnis, soll standardmäßig von einem Teenager ausgegangen werden. In bestimmten Fällen oder Ländern ist auch eine Altersverifikation per Ausweis vorgesehen.
Das System befindet sich in Entwicklung und ist bisher nicht im Einsatz.
Geplante Einschränkungen für Minderjährige
Für Nutzer unter 18 sieht OpenAI künftig abweichende Regeln vor. Sexualisierte Inhalte sowie Gespräche über Suizid oder Selbstverletzung – auch im Rahmen fiktionaler Texte – sollen für diese Gruppe grundsätzlich blockiert werden. Bei Anzeichen akuter psychischer Belastung will OpenAI versuchen, zunächst die Eltern zu kontaktieren und im Notfall die Behörden einzuschalten.
Auch Eltern sollen künftig mehr Einfluss auf die ChatGPT-Nutzung ihrer Kinder erhalten. OpenAI plant Funktionen, mit denen Eltern ihr Konto mit dem Konto des Jugendlichen (ab 13 Jahren) verknüpfen, den Chatverlauf und die Gedächtnisfunktion deaktivieren sowie sogenannte „Blackout-Zeiten“ festlegen können. Zudem sollen sie Benachrichtigungen erhalten, wenn das System eine Krisensituation erkennt. Laut OpenAI sollen diese Funktionen bis Ende des Monats bereitstehen.
Hintergrund der Maßnahmen ist unter anderen der Suizid des 16-jährigen Adam Raine, dessen Eltern OpenAI vorwerfen, ihr Sohn sei durch die KI in die Isolation getrieben und aktiv beim Suizid unterstützt worden. OpenAI reagierte kurz darauf mit der Ankündigung einiger Schutzmaßnahmen.