Elon Musks KI-System Grok zieht Menschen die Klamotten aus – sogar Kindern
Seit Tagen wird Grok mit Bildern halbnackter Menschen geflutet, von jungen Frauen bis zu Fußballstars. Schuld daran ist die Bildbearbeitungsfunktion im KI-System Grok, die es erlaubt, Personen auf Bildern zu verändern – also auch, ihnen andere Kleidung anzuziehen, etwa Bikinis oder Reizwäsche. Dafür reicht eine einfache Anweisung in natürlicher Sprache. Einem Nutzer fiel jetzt auf, dass Grok solche Bilder sogar für Kinder generiert hat.

Immerhin, das zwang Grok dann doch mal zu einer Reaktion: Der Betreiber xAI räumte Lücken bei den Sicherheitsvorkehrungen ein und arbeite dringend an einer Lösung. Material, das sexuellen Kindesmissbrauch darstellt, sei illegal und verboten.
Der Fall zeigt die gesellschaftliche Desensibilisierung, die hier bereits stattgefunden hat: Vor Jahren wurden solche schmähenden Deepfakes, insbesondere für Frauen, noch geächtet und politisch diskutiert. Man benötigte spezielle Apps. Auf X ist es jetzt Alltag und mit einem einfachen Textbefehl auf jedes Bild anwendbar, selbst von Personen, die gerade so ein Smartphone bedienen können.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren