Anzeige
Skip to content

OpenAI meldete Amokläuferin in Kanada trotz Warnsignalen in ChatGPT nicht der Polizei

Image description
GPT-Image-1 prompted by THE DECODER

Kurz & Knapp

  • Laut einem Bericht des Wall Street Journal diskutierten rund ein Dutzend OpenAI-Angestellte intern darüber, die kanadische Polizei über eine ChatGPT-Nutzerin zu informieren, die über mehrere Tage hinweg Szenarien mit Waffengewalt beschrieb.
  • Ein automatisiertes Überprüfungssystem hatte die Beiträge erkannt und an Mitarbeitende weitergeleitet. Die Führungsebene von OpenAI entschied sich gegen eine Meldung an die Strafverfolgungsbehörden.
  • Eine Sprecherin erklärte, die Aktivitäten hätten nicht die Kriterien einer "glaubwürdigen und unmittelbar bevorstehenden Gefahr schwerer körperlicher Schädigung" erfüllt. Das Konto der Nutzerin wurde lediglich gesperrt.

Laut einem Bericht des Wall Street Journal diskutierten rund ein Dutzend OpenAI-Angestellte intern darüber, die kanadische Polizei über eine ChatGPT-Nutzerin zu informieren, die Szenarien mit Waffengewalt beschrieb. Die Führungsebene entschied sich dagegen.

Monate bevor Jesse Van Rootselaar zur Hauptverdächtigen eines Amoklaufs an einer Schule in Tumbler Ridge, British Columbia, wurde, erwog OpenAI, die Strafverfolgungsbehörden über ihre Interaktionen mit ChatGPT zu informieren. Das berichtet das Wall Street Journal.

Van Rootselaar hatte im Juni 2025 über mehrere Tage hinweg Szenarien mit Waffengewalt in ChatGPT beschrieben. OpenAI erklärte, man trainiere die eigenen Modelle so, dass Nutzer von realer Gewalt abgehalten werden. Gespräche, in denen Nutzer Schädigungsabsichten äußerten, würden an menschliche Prüfer weitergeleitet, die bei unmittelbarer Gefahr schwerer körperlicher Schädigung die Strafverfolgungsbehörden einschalten könnten.

Privatsphäre gegen öffentliche Sicherheit: ein Dilemma für KI-Unternehmen

Laut dem Bericht diskutierten rund ein Dutzend OpenAI-Angestellte intern über die Beiträge. Einige interpretierten die Texte als Hinweis auf mögliche reale Gewalt und drängten die Führungsebene, die kanadische Polizei zu kontaktieren.

Anzeige
DEC_D_Incontent-1

OpenAI entschied sich dagegen. Eine Sprecherin des Unternehmens erklärte gegenüber dem Wall Street Journal, man habe Van Rootselaars Konto zwar gesperrt, ihre Aktivitäten hätten jedoch nicht die Kriterien für eine Meldung an die Strafverfolgungsbehörden erfüllt. Dafür hätte eine "glaubwürdige und unmittelbar bevorstehende Gefahr schwerer körperlicher Schädigung anderer" vorliegen müssen. Das Unternehmen habe nach Bekanntwerden der Tat die RCMP kontaktiert und unterstütze deren Ermittlungen.

Digitale Warnsignale hatte Van Rootselaar nicht nur bei ChatGPT hinterlassen. Auf der Online-Gaming-Plattform Roblox soll sie eine Massenschießung in einem Einkaufszentrum simuliert und sich an Online-Diskussionen über YouTube-Videos von Waffenenthusiasten beteiligt haben.

Am 10. Februar wurde Van Rootselaar am Tatort eines Amoklaufs tot aufgefunden, offenbar durch eine selbst zugefügte Verletzung. Acht Menschen starben, mindestens 25 wurden verletzt. Die Royal Canadian Mounted Police identifizierte die 18-Jährige als Tatverdächtige.

Anzeige
DEC_D_Incontent-2

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.