Die US-Handelsaufsicht FTC untersucht, wie KI-Chatbot-Entwickler mit Risiken für Kinder und Jugendliche umgehen. Sie hat Google, OpenAI, Meta (inkl. Instagram), Snap, Elon Musks xAI sowie Character Technologies per Anordnung zur Herausgabe von Informationen verpflichtet. Die Behörde will wissen, wie die Unternehmen ihre Systeme testen, überwachen und einschränken, um junge Nutzer zu schützen. Die Untersuchung dient zunächst Forschungszwecken, kann aber auch zu offiziellen Ermittlungen führen. Hintergrund ist unter anderem eine Klage von Eltern gegen OpenAI, deren Sohn sich laut Vorwurf mithilfe von ChatGPT das Leben nahm.
Anzeige