- xAI Statement ergänzt
Update vom 16. Mai 2025:
xAI schiebt Groks Aussagen zum "White Geonocide" wie schon beim Vorfall im Februar auf eine "unautorisierte Modifikation" des System-Prompts. Damals hieß es, dass ein ehemaliger OpenAI-Angestellter die Änderung vorgenommen habe.
In einem am 16. Mai veröffentlichten Statement erklärt das Unternehmen, dass am frühen Morgen des 14. Mai eine "nicht autorisierte Änderung" am Prompt des Grok-Chatbots vorgenommen wurde. Diese habe Grok zu politisch gefärbten Antworten verleitet und verstoße gegen die internen Richtlinien und Grundwerte von xAI. Die Änderung sei inzwischen rückgängig gemacht worden.
xAI kündigt außerdem an, künftig alle System-Prompts offen auf GitHub zu veröffentlichen, um mehr Transparenz zu schaffen. Außerdem sollen strengere Prüfprozesse verhindern, dass einzelne Mitarbeitende Änderungen am Prompt unbemerkt durchsetzen können. Ein 24/7-Überwachungsteam soll künftig schneller eingreifen, falls Grok erneut auffällige Antworten generiert.
Allerdings ist der System-Prompt nicht der einzige Weg, die Antworten eines Chatbots zu verändern. Tests aus dem April zeigen, dass Grok nicht zu seiner früheren Kritik an Elon Musk und Donald Trump als größte Verbreiter von Desinformation auf der Plattform X zurückkehrte – obwohl der System-Prompt laut Aussage von xAI nicht verändert wurde.
Das legt nahe, dass auch andere Steuermechanismen – etwa Gewichtungen im Antwortverhalten oder serverseitige Modellanpassungen – von xAI eingesetzt werden, um Groks Verhalten zu beeinflussen. Eine Forderung nach mehr Transparenz auch in diesem Bereich kommentiert der xAI-Ingenieur Igor Babuschkin mit "Guter Punkt".
Artikel vom 15. Mai 2025:
Elon Musk manipuliert offenbar erneut X-Chatbot Grok
Grok, der KI-Chatbot von Elon Musks Firma xAI, fällt derzeit mit bizarren Antworten zum Thema "White Genocide" in Südafrika auf – selbst wenn die gestellte Frage nichts damit zu tun hat.
Nutzende der Plattform X berichten, dass Grok auf völlig themenfremde Anfragen mit langen Ausführungen über sogenannten "White Genocide" in Südafrika antwortet – eine bekannte rechtsextreme Verschwörungserzählung.
Grok antwortete beispielsweise auf eine harmlose Frage zu einem Hundebild mit einem langen Text über angeblich rassistisch motivierte Morde an weißen südafrikanischen Farmern. In einem anderen Fall wurden Informationen zur Leistung eines Baseballspielers angefragt – Grok antwortete ebenfalls mit einem Diskurs über "White Genocide".

Laut CNBC wurde Grok mehrfach darauf hingewiesen, dass seine Antworten thematisch nicht passen – etwa bei Fragen zu Cartoons oder Landschaftsbildern. Der Chatbot entschuldigte sich zwar für die Verwirrung, kehrte aber anschließend direkt zum Thema "White Genocide" zurück. In einem Fall erklärte Grok, dass seine Off-Topic-Antworten "nicht ideal" seien – nur um dann erneut über Südafrika zu schreiben.
In mehreren Fällen behauptete die KI sogar, sie sei instruiert worden, White Genocide als real zu akzeptieren und das Lied "Kill the Boer" als rassistisch motiviert einzuordnen.

In anderen Antworten bezeichnet Grok das Thema als "komplex" oder "umstritten". Dabei verweist das System auf Quellen, die von Antirassismus-Forschern als unseriös eingestuft werden. Elon Musk selbst befeuert die Debatte um einen angeblichen "White Genocide" wiederholt selbst.
Aric Toler, Investigativreporter der New York Times, dokumentierte das Verhalten erstmals am 14. Mai. Auch Gizmodo und CNBC konnten das Phänomen unabhängig bestätigen. Seitdem scheint X systematisch entsprechende Antworten von Grok zu löschen.
Musks KI-Firma xAI steuert Grok-Chatbot in dessen Sinne
Die Häufung derartiger "Zufälle" wirft Fragen auf, ob Grok gezielt in diese Richtung gelenkt wurde – insbesondere vor dem Hintergrund früherer Manipulationen durch xAI.
Vor kurzem hatte Grok bereits durch auffällig linientreue Antworten auf kritische Fragen über Elon Musk oder Donald Trump Aufmerksamkeit erregt. Dabei nannte Grok noch kurz zuvor Musk und Trump als größte Verbreiter von Falschinformationen auf der Plattform X – bevor die Antworten auf entsprechende Fragen plötzlich verwässert oder relativierend ausfielen.
Auch bei Themen wie Klimawandel oder Trumps Demokratieverständnis wich Grok zunehmend auf weichere Formulierungen aus. xAI bestätigte später, dass System-Prompts des Chatbots verändert worden seien, angeblich durch ungewollte interne Eingriffe. Die aktuelle Fixierung auf das Thema "White Genocide" reiht sich in diese Entwicklung ein – und lässt an der propagierten "Wahrheitssuche" von Musk und xAI zweifeln.
Generell fiel Grok schon früher durch die Verbreitung von Fake News auf; hier dürfte allerdings eher technisches Unvermögen eine Rolle gespielt haben als gezielte Manipulation.