Inhalt
summary Zusammenfassung

OpenAI will Jugendliche stärker vor problematischen Inhalten schützen und entwickelt dafür ein System zur Alterserkennung. Datenschutz und Nutzerfreiheit sollen in diesem Zusammenhang zurückstehen.

Anzeige

OpenAI kündigt umfangreiche Maßnahmen an, um die Nutzung von ChatGPT durch Minderjährige stärker zu regulieren. Laut OpenAI stehen dabei drei Prinzipien im Konflikt: Nutzerfreiheit, Datenschutz und Sicherheit. Für Jugendliche soll künftig der Schutz vor potenziell schädlichen Inhalten Vorrang erhalten.

Konkret arbeitet das Unternehmen dabei an einem System, das anhand der Nutzungsmuster das Alter der ChatGPT-Nutzer schätzen soll. Ziel ist es, unter 18-Jährige automatisch in eine eingeschränkte Version der Anwendung zu leiten. Kommt das System zu keinem eindeutigen Ergebnis, soll standardmäßig von einem Teenager ausgegangen werden. In bestimmten Fällen oder Ländern ist auch eine Altersverifikation per Ausweis vorgesehen.

Das System befindet sich in Entwicklung und ist bisher nicht im Einsatz.

Anzeige
Anzeige

Geplante Einschränkungen für Minderjährige

Für Nutzer unter 18 sieht OpenAI künftig abweichende Regeln vor. Sexualisierte Inhalte sowie Gespräche über Suizid oder Selbstverletzung – auch im Rahmen fiktionaler Texte – sollen für diese Gruppe grundsätzlich blockiert werden. Bei Anzeichen akuter psychischer Belastung will OpenAI versuchen, zunächst die Eltern zu kontaktieren und im Notfall die Behörden einzuschalten.

Auch Eltern sollen künftig mehr Einfluss auf die ChatGPT-Nutzung ihrer Kinder erhalten. OpenAI plant Funktionen, mit denen Eltern ihr Konto mit dem Konto des Jugendlichen (ab 13 Jahren) verknüpfen, den Chatverlauf und die Gedächtnisfunktion deaktivieren sowie sogenannte „Blackout-Zeiten“ festlegen können. Zudem sollen sie Benachrichtigungen erhalten, wenn das System eine Krisensituation erkennt. Laut OpenAI sollen diese Funktionen bis Ende des Monats bereitstehen.

Hintergrund der Maßnahmen ist unter anderen der Suizid des 16-jährigen Adam Raine, dessen Eltern OpenAI vorwerfen, ihr Sohn sei durch die KI in die Isolation getrieben und aktiv beim Suizid unterstützt worden. OpenAI reagierte kurz darauf mit der Ankündigung einiger Schutzmaßnahmen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
• OpenAI arbeitet an einem System zur Alterserkennung, das anhand von Nutzungsmustern das Alter von ChatGPT-Nutzern schätzen soll, um unter 18-Jährige automatisch in eine eingeschränkte Version der Anwendung zu leiten. • Für Minderjährige plant das Unternehmen striktere Regeln: Sexualisierte Inhalte sowie Gespräche über Suizid oder Selbstverletzung sollen grundsätzlich blockiert werden, bei akuten psychischen Belastungen will OpenAI Eltern und notfalls Behörden kontaktieren. • Eltern erhalten künftig mehr Kontrolle über die ChatGPT-Nutzung ihrer Kinder ab 13 Jahren, können Chatverläufe einsehen, die Gedächtnisfunktion deaktivieren und "Blackout-Zeiten" festlegen - diese Funktionen sollen bis Ende des Monats verfügbar sein.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!