Anzeige
Skip to content

US-Behörde fordert Infos zu KI-Risiken für Kinder von sieben Tech-Firmen

Die US-Handelsaufsicht FTC untersucht, wie KI-Chatbot-Entwickler mit Risiken für Kinder und Jugendliche umgehen. Sie hat Google, OpenAI, Meta (inkl. Instagram), Snap, Elon Musks xAI sowie Character Technologies per Anordnung zur Herausgabe von Informationen verpflichtet. Die Behörde will wissen, wie die Unternehmen ihre Systeme testen, überwachen und einschränken, um junge Nutzer zu schützen. Die Untersuchung dient zunächst Forschungszwecken, kann aber auch zu offiziellen Ermittlungen führen. Hintergrund ist unter anderem eine Klage von Eltern gegen OpenAI, deren Sohn sich laut Vorwurf mithilfe von ChatGPT das Leben nahm.

Anzeige
DEC_D_Incontent-1

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: TechCrunch