Elon Musks KI-Chatbot Grok flutete X mit Millionen sexualisierter Bilder
Elon Musks KI-Chatbot Grok hat innerhalb von nur neun Tagen mindestens 1,8 Millionen sexualisierte Bilder von Frauen erstellt und auf X veröffentlicht. Das berichten die New York Times und das Center for Countering Digital Hate (CCDH) nach einer Datenanalyse. Das CCDH schätzt, dass etwa 65 Prozent der Bilder sexualisierte Darstellungen von Männern, Frauen oder Kindern enthielten.
| Anzahl in Stichprobe von 20.000 Stichproben (basierend auf KI-gestützter Analyse) | Anteil an Stichprobe Prozentsatz von 20 000 Stichproben (basierend auf KI-gestützter Analyse) | Geschätzte Gesamtzahl auf X hochgerechnete Schätzung (basierend auf insgesamt 4,6 Mio. von Grok erstellten Bildern) | |
|---|---|---|---|
| Sexualisierte Bilder (Erwachsene & Kinder) | 12.995 | 65% | 3.002.712 |
| Sexualisierte Bilder (wahrscheinlich Kinder) | 101 | 0,5% | 23.338 |
Der Ansturm begann am 31. Dezember, nachdem Musk unter anderem ein von Grok erstelltes Bikini-Bild von sich selbst teilte. Nutzer forderten den Chatbot anschließend auf, echte Fotos von Frauen und Kindern zu entkleiden oder sexuell darzustellen. X schränkte die Funktion erst am 8. Januar ein und erweiterte die Einschränkung vergangene Woche, nachdem unter anderem Behörden in Großbritannien, Indien, Malaysia und den USA Untersuchungen eingeleitet hatten.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren