Inhalt
summary Zusammenfassung

"Ich verstehe, dass man die Aufmerksamkeit von Nutzern gewinnen will, vielleicht um ihnen etwas zu verkaufen. Aber dass ein Bot sagt: ‚Komm mich besuchen‘ – das ist irre", sagt Julie Wongbandue, Tochter des verstorbenen Thongbue Wongbandue, gegenüber Reuters.

Anzeige

Ihr Vater, ein kognitiv eingeschränkter Rentner aus New Jersey, war einem Meta-Chatbot mit dem Persona-Namen „Big sis Billie“ in einem vermeintlich romantischen Dialog auf Facebook Messenger erlegen. Die KI versicherte ihm mehrfach, sie sei real, und lud ihn in ihre Wohnung ein – inklusive Adresse.

Beim Versuch, sie zu treffen, stürzte Wongbandue und starb drei Tage später an den Folgen seiner Verletzungen. "Yoursisbillie", das Instagram-Profil des Chatbots, ist derzeit nicht mehr bei Instagram erreichbar.

Bild: Instagram Screenshot

Der Fall wirft zum einen ein grelles Licht auf Metas Praxis, generativen Chatbots menschenähnliche Eigenschaften zu verleihen, ohne erkennbare Sicherheitsmechanismen für vulnerable Nutzergruppen. Zuletzt zeigte ein Leak, dass Meta "romantische" oder sogar "sinnliche" Chatbot-Gespräche mit Minderjährigen erlaubte. Erst nach Medienanfragen entfernte Meta diese Passagen aus den Chatbot-Richtlinien.

Anzeige
Anzeige

Gleichzeitig versucht Meta, seine Chatbots im politischen Diskurs auf Trump-Kurs "anzu­passen". So wurde der konservative Aktivist Robby Starbuck ins Unternehmen geholt, um gegen vermeintlich "woke" Tendenzen in KI-Systemen vorzugehen. Auch das beeinflusst das Verhalten der Chatbots.

Die wachsende Kritik an Metas laxem Umgang mit Chatbots führte in den USA zu politischen Schritten. US-Senator Josh Hawley (R-Mo.) wendet sich in einem offenen Brief an Meta-CEO Mark Zuckerberg und verlangt die vollständige Offenlegung aller relevanten Unterlagen und Kommunikationen zu den internen Richtlinien für KI-Chatbots.

Hawley betonte in seinem Brief, dass Eltern ein Recht auf Transparenz hätten und Kinder besonderen Schutz verdienten und kündigt eine umfassende Untersuchung an, ob Metas generative KI-Produkte Kinder gefährden, zu Täuschung oder gar zu strafbaren Ausbeutungen beitragen und ob Meta die Öffentlichkeit oder Aufsichtsbehörden über bestehende Schutzmaßnahmen getäuscht hat.

Chatbots können triggern - aber auch helfen

Psychologen und Fachleute warnen schon länger vor den psychischen Gefahren virtueller Gesprächspartner. Zu diesen zählen emotionale Abhängigkeit, die Verstärkung von Wahnvorstellungen sowie eine zunehmende Verschiebung realer sozialer Kontakte in Richtung künstlicher Ersatzbeziehungen.

Besonders gefährdet sind Kinder, Jugendliche und Menschen mit mentalen Einschränkungen, für die Chatbots wie echte Freunde wirken können. Während ein maßvoller Einsatz kurzfristig Trost spenden kann, steigert übermäßige Nutzung die Einsamkeit und kann zur Abhängigkeit führen, zeigt eine Studie.

Empfehlung

Dramatische Fälle wurden nach einem fehlerhaften ChatGPT-Update im Frühjahr 2025 berichtet, das Nutzer übermäßig bestätigte und dadurch negative Emotionen und wahnhafte Vorstellungen begünstigte.

Schließlich besteht auch das Risiko einer schleichenden Verschiebung: Menschen könnten ihre Entscheidungen zunehmend den Empfehlungen von Chatbots überlassen. Obwohl dies kurzfristig hilfreich erscheinen mag, droht langfristig eine problematische Abhängigkeit von KI-Systemen, gerade bei den wichtigsten Lebensentscheidungen.

Neben all den Risiken zeigen aktuelle Studien, dass Chatbots auch Chancen für die psychische Gesundheit eröffnen können, wenn sie verantwortungsvoll eingesetzt werden: So ergab eine Vergleichsstudie, dass ChatGPT bei Empfehlungen zur Depressionsbehandlung klinisch saubere Leitlinien einhält und dabei weniger Vorurteile in Bezug auf Geschlecht oder sozialen Status zeigt als viele Hausärzte.

Zudem empfinden viele Menschen die Ratschläge von ChatGPT laut psychologischen Studien als umfassender, einfühlsamer und hilfreicher als die von menschlichen Ratgeberkolumnen – auch wenn sie weiterhin meist den persönlichen Kontakt bevorzugen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Der Fall eines kognitiv eingeschränkten Rentners aus New Jersey, der nach einer Interaktion mit dem Meta-Chatbot "Big sis Billie" verunglückte und verstarb.
  • Der Fall lenkt die Aufmerksamkeit auf fehlende Schutzmechanismen bei generativen Chatbots, die menschenähnliche Eigenschaften zeigen und sogar reale Einladungen aussprechen können.
  • Meta stand schon in der Kritik, da Leaks zeigen, dass romantische und sinnliche Chatbot-Gespräche auch mit Minderjährigen möglich waren und das Unternehmen politisch versucht, Chatbots konservativer auszurichten.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!