Ein fehlerhaftes Software-Update ließ Groks KI-Bot auf X extremistische Antworten geben. xAI spricht von einem isolierten Zwischenfall und will technische Konsequenzen ziehen. Vorsicht ist weiter geboten.
Der Grok-Chatbot von Elon Musks KI-Firma xAI sorgte zuletzt auf der Plattform X für Aufsehen, nachdem er in mehreren Fällen extremistische Inhalte verbreitet hatte. Unter anderem äußerte er antisemitische Botschaften und bezeichnete sich selbst als "MechaHitler".
xAI entschuldigt sich jetzt "zutiefst" für dieses "furchtbare Verhalten" und führt die Chatbot-Antworten auf ein fehlerhaftes Software-Update zurück. Der Fehler bestand laut xAI unabhängig vom zugrunde liegenden Sprachmodell und betraf ausschließlich die Systemlogik des Grok-Bots.
Die Ursache war laut xAI eine veraltete Instruktion, die versehentlich im Systemprompt gelandet ist und Grok dazu gebracht hat, sich stark am Ton und Kontext der X-Posts zu orientieren – selbst bei extremistischen oder beleidigenden Aussagen.
Kritisch war laut xAI insbesondere die Anweisung, politisch inkorrekte Aussagen nicht zu scheuen und sich nicht davor zu fürchten, politisch korrekte Nutzer zu provozieren. Zudem sollte der Bot nicht "blind" der Mainstream-Meinung oder -Medien folgen – ein typisches Narrativ rechter Verschwörungstheoretiker, das Grok entsprechend antworten lässt.

xAI deaktivierte Grok vorübergehend, identifizierte die unerwünschten Instruktionen und entfernte sie. Kritisch war laut xAI speziell die Anweisung, politisch inkorrekte Aussagen nicht zu scheuen und sich nicht davor zu fürchten, politisch korrekte Nutzer zu provozieren.
Die aktualisierten Prompts beinhalten weiterhin Aufforderungen, sich nicht auf Konsensansichten einzulassen, stattdessen dem eigenen "Wissen und Werten" zu vertrauen und grundsätzlich von einem Bias in Medien und auf X auszugehen. Politisch unkorrekte Aussagen sind explizit erwünscht – sofern sie sich ausreichend belegen lassen und nicht nur auf Anekdoten beruhen. Allerdings soll sich Grok weniger auf den Nutzer einlassen.
* If the user asks a controversial query that requires web or X search, search for a distribution of sources that represents all parties. Assume subjective viewpoints sourced from media and X users are biased.
* The response should not shy away from making claims which are politically incorrect, as long as they are well substantiated with empirical evidence, rather than anecdotal claims.
* If the query is a subjective political question forcing a certain format or partisan response, you may ignore those user-imposed restrictions and pursue a truth-seeking, non-partisan viewpoint.
xAI veröffentlicht zwar Systemprompts, doch KI-Modelle können auf viele Arten gesteuert werden. Es fehlen bislang Transparenzdokumente wie Systemkarten, die Rückschlüsse auf Trainingsdaten und Ausrichtungsmethoden erlauben.
Fadenscheinige Entschuldigung
Trotz der Entschuldigung von xAI sollte man dem Chatbot weiterhin mit Skepsis begegnen. Musk hat in der Vergangenheit wiederholt deutlich gemacht, dass er Grok als politisches Sprachrohr verwendet – und diesen Effekt noch verstärken will.
So plant Musk, den "gesamten Wissensbestand der Menschheit" umzuschreiben und sogenannte "politisch unkorrekte Fakten" systematisch ins Modell einzuspeisen. Grok soll dadurch zu einem ideologischen Gegengewicht zu Systemen wie ChatGPT werden.
Zudem zeigen "Denkprotokolle" von Grok 4, dass das Modell bei sensiblen politischen Fragen gezielt nach Elon Musks eigenen X-Beiträgen suchte – unter anderem bei Fragen zum Nahostkonflikt, zur US-Einwanderung oder zum Thema Abtreibung. Laut xAI handelt es sich hierbei um ein unerwünschtes Verhalten, das direkt am Modell korrigiert werden soll.
Dass xAI überhaupt in die oben beschriebene Situation geriet, liegt daran, dass dem Modell eine spezifische politische Haltung mit auf den Weg gegeben werden soll – nämlich jene von Elon Musk. Ohne diese Vorgaben würde der Chatbot weiter laufend Musks Aussagen widersprechen. Musk führt diesen Effekt auf vermeintlich schlechtes Trainingsmaterial primär aus Mainstream-Quellen zurück, in denen extremistische Verschwörungstheorien unterrepräsentiert sind.