OpenAI weist Schuld von ChatGPT am Selbstmord eines Teenagers zurück
OpenAI sieht im Falle des Selbstmords von Adam Raine die Schuld nicht bei ChatGPT. In einer gerichtlichen Stellungnahme wies das Unternehmen am Dienstag die Klage der Familie zurück. OpenAI argumentiert, der 16-Jährige habe den Chatbot entgegen der Nutzungsbedingungen missbraucht und Sicherheitsfilter gezielt umgangen. Laut den Anwälten des Konzerns habe die KI über 100 Mal auf Hilfsangebote verwiesen, doch der Teenager habe harmlose Absichten vorgetäuscht, um diese Hinweise zu umgehen. Die Familie und ihr Anwalt Jay Edelson werfen dem Konzern hingegen vor, das für Schmeichelei stark in der Kritik stehende Modell GPT-4o sei unsicher und habe aktiv beim Suizid geholfen. Ein OpenAI-Entwickler nannte das Modell kürzlich "nicht ausreichend ausgerichtet" im Kontext von Nutzerinteraktionen.
In einem Blogbeitrag ergänzt OpenAI, man wolle das Verfahren respektvoll führen, müsse aber zur Verteidigung "schwierige Fakten" zu Raines psychischer Gesundheit offenlegen. Die Gegenseite habe Chats nur selektiv zitiert, weshalb OpenAI dem Gericht nun die vollständigen, versiegelten Protokolle übergab.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren