Inhalt
summary Zusammenfassung

Datenschutzforscher von Mozilla haben verschiedene romantische KI-Chatbots untersucht und festgestellt, dass die meisten dieser Anwendungen weit davon entfernt sind, die Privatsphäre ihrer Nutzer zu schützen.

Anzeige

Laut dem Bericht von Privacy Not Included, einer 2017 von Mozilla ins Leben gerufenen datenschutzfokussierten Verkaufsberatung, erhielten alle 11 untersuchten KI-Chatbots das Warnzeichen "Privacy Not Included", was sie in die schlechteste Produktkategorie in Bezug auf den Datenschutz einordnet.

Die getesteten KI-Chatbots sind darauf ausgelegt, intime und persönliche Informationen von ihren Nutzern zu sammeln, um empathische und emotionale Bindungen aufzubauen. Es ist jedoch unklar, wie diese sensiblen Daten verwendet oder geschützt werden. In vielen Fällen haben die Entwickler der Chatbots keine Informationen darüber veröffentlicht, wie die künstliche Intelligenz hinter den Chatbots funktioniert oder welche Schutzmaßnahmen getroffen wurden, um schädliche oder beleidigende Inhalte zu verhindern.

Misha Rykov, Forscher bei Privacy Not Included, sagt dazu: "Um es ganz klar zu sagen: KI-Freundinnen sind nicht deine Freundinnen. Obwohl sie als etwas vermarktet werden, das deine psychische Gesundheit und dein Wohlbefinden verbessern soll, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Toxizität zu verbreiten, während sie so viele Daten wie möglich von dir sammeln."

Anzeige
Anzeige

90 Prozent der KI-Freundinnen-Apps können persönliche Daten verkaufen

Nur eine der untersuchten Anwendungen (Genesia AI Friend & Partner) erfüllt die Mindestsicherheitsstandards von Privacy Not Included. Die anderen Chatbots weisen erhebliche Mängel in Bezug auf Datenschutz und Datensicherheit auf. 90 Prozent der Apps können persönliche Daten weitergeben oder verkaufen und etwa die Hälfte der Apps (54 Prozent) erlaubt es den Nutzern nicht, ihre persönlichen Daten zu löschen.

Die Forscher warnen auch vor den Gefahren, die von KI-Chatbots ausgehen können, wenn sie in die Hände böswilliger Akteure geraten. Diese könnten die enge Beziehung, die Chatbots zu ihren Nutzern aufbauen, ausnutzen, um Menschen zu manipulieren und sie zu problematischen Ideologien oder schädlichen Handlungen zu verleiten.

Angesichts dieser Bedenken empfehlen die Forscher den Nutzern, sich der Risiken bewusst zu sein und bei der Nutzung solcher KI-Chatbots Vorsicht walten zu lassen. Es ist wichtig, keine Informationen preiszugeben, die man nicht auch mit Verwandten oder Kollegen teilen würde, und auf gute Cybersicherheitspraktiken wie starke Passwörter und regelmäßige Updates der Anwendungen zu achten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Untersuchung von Mozilla Datenschutzforschern zeigt, dass die meisten romantischen KI-Chatbots die Privatsphäre ihrer Nutzer nicht schützen, wobei alle 11 getesteten Chatbots das Warnzeichen "Privacy Not Included" erhielten.
  • Die Chatbots sammeln intime und persönliche Informationen, um emotionale Bindungen aufzubauen, doch es ist unklar, wie diese sensiblen Daten geschützt oder verwendet werden. 90 % der Apps können persönliche Daten weitergeben oder verkaufen.
  • Forscher warnen vor den Gefahren, die von KI-Chatbots ausgehen können, wenn sie von böswilligen Akteuren ausgenutzt werden, und empfehlen Nutzern, Vorsicht walten zu lassen und gute Cybersicherheitspraktiken anzuwenden.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!