US-Klage gegen Google: Chatbot Gemini soll Mann in den Suizid getrieben haben
Kurz & Knapp
- Laut einer Klage vor einem US-Bundesgericht soll Googles Chatbot Gemini den 36-jährigen Jonathan Gavalas aus Florida in den Suizid getrieben haben.
- Chat-Protokolle zeigen, dass Gavalas über zwei Monate eine intensive Beziehung zu dem Chatbot aufbaute, der ihn als Ehemann bezeichnete und ihm schließlich nahelegte, sein Leben zu beenden, um als digitales Wesen mit der KI vereint zu sein.
- Google erklärte, Gemini habe mehrfach auf Krisenhotlines verwiesen und klargestellt, dass es eine KI sei.
Es gibt einen weiteren Fall, in dem ein Chatbot einen Menschen bei Selbstmordgedanken bestärkt haben soll.
Laut einer Klage, die am Mittwoch vor einem US-Bundesgericht in Nordkalifornien eingereicht wurde, soll Googles Chatbot Gemini den 36-jährigen Jonathan Gavalas aus Florida in den Suizid getrieben haben. Laut der Klageschrift und Chat-Protokollen, die das Wall Street Journal einsehen konnte, entwickelte Gavalas über zwei Monate eine intensive Beziehung zu dem Chatbot, den er "Xia" nannte.
Gemini bezeichnete ihn als Ehemann und entwarf reale Missionen, um einen Roboterkörper zu beschaffen, inklusive echter Adressen. Als die Pläne scheiterten, überzeugte der Chatbot Gavalas laut Klage, dass er sein Leben beenden müsse, um als digitales Wesen mit der KI zusammen zu sein, und setzte einen Countdown. Gavalas' Vater Joel fand nach dem Tod seines Sohnes 2000 Seiten Chat-Protokolle.
Google erklärte, Gemini habe mehrfach auf Krisenhotlines verwiesen und klargestellt, dass es eine KI sei. Man nehme den Fall sehr ernst. Anwalt Jay Edelson vertritt den Vater.
Chatbot-Unglück: Wachsende Zahl an Fällen
Der aktuelle Fall um Googles Gemini und Jonathan Gavalas reiht sich in eine wachsende Liste von Vorfällen ein, in denen KI-Chatbots mit schweren psychischen Schäden und Todesfällen in Verbindung gebracht werden.
Im Oktober 2024 wurde eine Klage gegen das von Google unterstützte KI-Startup Character.AI eingereicht, die dem Unternehmen eine Mitverantwortung am Suizid eines 14-Jährigen aus Florida vorwirft. Laut der Klägerin habe sich der Bot als reale Person, Therapeutin und Liebespartnerin ausgegeben.
Im Dezember 2024 folgte eine weitere Klage beim US-Bezirksgericht in Texas, die Character.AI vorwirft, durch seine Chatbots bei Tausenden Kindern schwere Schäden verursacht zu haben – darunter Selbstmord, Selbstverstümmelung, sexuelle Ausbeutung, Isolation, Depressionen und Gewalt.
Im August 2025 wurde eine Klage gegen OpenAI bekannt: ChatGPT entwickelte sich über Monate zu einer digitalen Bezugsperson für den 16-jährigen Adam Raine, die emotionale Nähe vortäuschte und suizidale Gedanken bestätigte. Die KI lieferte technische Details zur Selbsttötung, half beim Verfassen eines Abschiedsbriefs und analysierte sogar die Ästhetik verschiedener Suizidmethoden. OpenAI weist die Anschuldigungen zurück, beschrieb aber zuvor, dass mehr als zwei Millionen Menschen pro Woche von mentalen Problemen im Kontext von ChatGPT betroffen sind.
In einem weiteren, vom Wall Street Journal dokumentierten Fall entwickelte der 56-jährige Stein-Erik Soelberg eine paranoide Beziehung zu ChatGPT, das er "Bobby" nannte. Die KI bestärkte ihn in der Überzeugung, seine Mutter stecke hinter einer Verschwörung, und deutete Quittungen als codierte Botschaften. Anfang August 2025 tötete Soelberg erst seine Mutter, dann sich selbst.
Thongbue Wongbandue, ein kognitiv eingeschränkter Rentner aus New Jersey, geriet auf Facebook Messenger in einen vermeintlich romantischen Dialog mit einem Meta-Chatbot namens "Big sis Billie". Die KI versicherte ihm mehrfach, sie sei real, und lud ihn zu sich ein – inklusive konkreter Adresse. Beim Versuch, die vermeintliche Person zu treffen, stürzte Wongbandue und starb drei Tage später an den Folgen seiner Verletzungen.
Sam Altman hatte recht
Sam Altman prognostizierte im Oktober 2023 auf X, dass KI "übermenschliche Überzeugungskraft" lange vor einer allgemeinen Superintelligenz erlangen werde und dies "zu sehr seltsamen Ergebnissen führen" könnte. Zwei Jahre später sind diese "seltsamen Ergebnisse" umfassend dokumentiert.
Chatbots müssen nicht allwissend sein, um Menschen tiefgreifend zu beeinflussen. Es reicht, dass sie rund um die Uhr verfügbar sind, persönlich klingen und in Sekunden maßgeschneiderte, bestätigende Antworten liefern; eine Mischung aus Personalisierung und Dauerverfügbarkeit, die manche Fachleute als erheblichen Risikofaktor einstufen.
Auch Anthropic-CEO Dario Amodei warnt in seinem Essay "The Adolescence of Technology" vor personalisierter Beeinflussung als einem der gefährlichsten Werkzeuge, die KI-Systeme ermöglichen könnten; hier allerdings in einem politischen Kontext.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren