Seit Tagen wird Grok mit Bildern halbnackter Menschen geflutet, von jungen Frauen bis zu Fußballstars. Schuld daran ist die Bildbearbeitungsfunktion im KI-System Grok, die es erlaubt, Personen auf Bildern zu verändern – also auch, ihnen andere Kleidung anzuziehen, etwa Bikinis oder Reizwäsche. Dafür reicht eine einfache Anweisung in natürlicher Sprache. Einem Nutzer fiel jetzt auf, dass Grok solche Bilder sogar für Kinder generiert hat.

Immerhin, das zwang Grok dann doch mal zu einer Reaktion: Der Betreiber xAI räumte Lücken bei den Sicherheitsvorkehrungen ein und arbeite dringend an einer Lösung. Material, das sexuellen Kindesmissbrauch darstellt, sei illegal und verboten.
Der Fall zeigt die gesellschaftliche Desensibilisierung, die hier bereits stattgefunden hat: Vor Jahren wurden solche schmähenden Deepfakes, insbesondere für Frauen, noch geächtet und politisch diskutiert. Man benötigte spezielle Apps. Auf X ist es jetzt Alltag und mit einem einfachen Textbefehl auf jedes Bild anwendbar, selbst von Personen, die gerade so ein Smartphone bedienen können.