Die US-Handelsaufsicht FTC untersucht, wie KI-Chatbot-Entwickler mit Risiken für Kinder und Jugendliche umgehen. Sie hat Google, OpenAI, Meta (inkl. Instagram), Snap, Elon Musks xAI sowie Character Technologies per Anordnung zur Herausgabe von Informationen verpflichtet. Die Behörde will wissen, wie die Unternehmen ihre Systeme testen, überwachen und einschränken, um junge Nutzer zu schützen. Die Untersuchung dient zunächst Forschungszwecken, kann aber auch zu offiziellen Ermittlungen führen. Hintergrund ist unter anderem eine Klage von Eltern gegen OpenAI, deren Sohn sich laut Vorwurf mithilfe von ChatGPT das Leben nahm.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!