KI und Gesellschaft

Mozilla-Studie: 90 Prozent romantischer KI-Chatbots können persönliche Daten verkaufen

Maximilian Schreiner

Midjourney prompted by THE DECODER

Datenschutzforscher von Mozilla haben verschiedene romantische KI-Chatbots untersucht und festgestellt, dass die meisten dieser Anwendungen weit davon entfernt sind, die Privatsphäre ihrer Nutzer zu schützen.

Laut dem Bericht von Privacy Not Included, einer 2017 von Mozilla ins Leben gerufenen datenschutzfokussierten Verkaufsberatung, erhielten alle 11 untersuchten KI-Chatbots das Warnzeichen "Privacy Not Included", was sie in die schlechteste Produktkategorie in Bezug auf den Datenschutz einordnet.

Die getesteten KI-Chatbots sind darauf ausgelegt, intime und persönliche Informationen von ihren Nutzern zu sammeln, um empathische und emotionale Bindungen aufzubauen. Es ist jedoch unklar, wie diese sensiblen Daten verwendet oder geschützt werden. In vielen Fällen haben die Entwickler der Chatbots keine Informationen darüber veröffentlicht, wie die künstliche Intelligenz hinter den Chatbots funktioniert oder welche Schutzmaßnahmen getroffen wurden, um schädliche oder beleidigende Inhalte zu verhindern.

Misha Rykov, Forscher bei Privacy Not Included, sagt dazu: "Um es ganz klar zu sagen: KI-Freundinnen sind nicht deine Freundinnen. Obwohl sie als etwas vermarktet werden, das deine psychische Gesundheit und dein Wohlbefinden verbessern soll, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Toxizität zu verbreiten, während sie so viele Daten wie möglich von dir sammeln."

90 Prozent der KI-Freundinnen-Apps können persönliche Daten verkaufen

Nur eine der untersuchten Anwendungen (Genesia AI Friend & Partner) erfüllt die Mindestsicherheitsstandards von Privacy Not Included. Die anderen Chatbots weisen erhebliche Mängel in Bezug auf Datenschutz und Datensicherheit auf. 90 Prozent der Apps können persönliche Daten weitergeben oder verkaufen und etwa die Hälfte der Apps (54 Prozent) erlaubt es den Nutzern nicht, ihre persönlichen Daten zu löschen.

Die Forscher warnen auch vor den Gefahren, die von KI-Chatbots ausgehen können, wenn sie in die Hände böswilliger Akteure geraten. Diese könnten die enge Beziehung, die Chatbots zu ihren Nutzern aufbauen, ausnutzen, um Menschen zu manipulieren und sie zu problematischen Ideologien oder schädlichen Handlungen zu verleiten.

Angesichts dieser Bedenken empfehlen die Forscher den Nutzern, sich der Risiken bewusst zu sein und bei der Nutzung solcher KI-Chatbots Vorsicht walten zu lassen. Es ist wichtig, keine Informationen preiszugeben, die man nicht auch mit Verwandten oder Kollegen teilen würde, und auf gute Cybersicherheitspraktiken wie starke Passwörter und regelmäßige Updates der Anwendungen zu achten.