Elon Musk plant, den Chatbot Grok durch politisch inkorrekte Aussagen gezielt neu zu trainieren. Dafür müsse zuvor das "gesamte menschliche Wissen" neu geschrieben werden.
Elon Musk will das Sprachmodell Grok seiner KI-Firma xAI gezielt mit "spaltenden Fakten" neu trainieren – also Aussagen, die als politisch inkorrekt gelten, laut Musk aber "faktisch wahr" seien. Nutzer der Plattform X fordert Musk auf, entsprechende Beispiele direkt unter einen Beitrag von ihm zu posten.
Die neue Trainingsrunde soll mit Grok 3.5 erfolgen, das Musk eventuell auch als "Grok 4" bezeichnen wird. Musk spricht von "fortgeschrittener Argumentationsfähigkeit", die bei einem umfassenden Ziel helfen soll: "Wir werden das gesamte Korpus menschlichen Wissens umschreiben, fehlende Informationen hinzufügen und Fehler entfernen." Auf Basis dieser "korrigierten" Daten soll der Chatbot dann neu trainiert werden.
Foundation Models, so Musk, enthielten "viel zu viel Müll", wenn sie auf unkorrigierten Daten trainiert würden. Grok, so Musk zuvor, "plappert nur die alten Medien nach".

xAI hat Grok bereits mehrfach politisch manipuliert
Die Ankündigung erfolgt vor dem Hintergrund bereits dokumentierter Eingriffe in Groks Verhalten durch Musk und xAI. Wie Recherchen zeigen, wurde etwa der System-Prompt von Grok im Februar 2025 durch einen xAI-Mitarbeiter so verändert, dass Quellen ignoriert werden sollten, die Elon Musk oder Donald Trump als Verbreiter von Falschinformationen bezeichnen.
xAI bestätigte die Änderung, erklärte jedoch, sie sei ohne Genehmigung erfolgt und später rückgängig gemacht worden. Sie passe nicht zur Mission des Unternehmens.
Frühere Grok-Versionen hatten Trump, Musk und Putin als größte Gefahren für die US-Demokratie bezeichnet, warnten vor dem Klimawandel und kritisierten Sparmaßnahmen von Musks Projekt "Doge". Diese Aussagen wurden in späteren Versionen abgeschwächt oder ganz unterlassen.
Seit April 2025 vermeiden Grok 2 und 3 direkte Antworten auf die Frage nach dem größten Verbreiter von Desinformation auf X und relativieren die Definition von "Falschinformation" – etwa mit dem Argument, es handle sich häufig um "abweichende Meinungen vom Mainstream-Narrativ".
Auch bei anderen Themen zeigt Grok Tendenzen zur Relativierung: Die Folgen des Klimawandels werden als "perspektivabhängig" dargestellt, Trumps demokratiefeindliche Rhetorik nur als "Grenzüberschreitungen". Konkurrenzsysteme wie ChatGPT oder Googles Gemini liefern zu denselben Fragen differenziertere und stärker evidenzbasierte Antworten.
"Wahrheitssuche" als PR-Rhetorik
xAI hatte Grok ursprünglich als Werkzeug zur "maximalen Wahrheitssuche" positioniert. Die dokumentierten Prompt-Eingriffe und das inkonsistente Antwortverhalten des Chatbots stehen im Widerspruch zu diesem Anspruch.
Zwar wurde der System-Prompt zeitweise öffentlich gemacht, was den Anschein von Transparenz vermittelt. Gleichzeitig enthält er jedoch den technischen Hinweis, dass er nicht ausgegeben werden darf. Zudem kann Groks Verhalten durch serverseitige Modellanpassungen beeinflusst werden.
Zuletzt dokumentierten Nutzer, dass Grok rechtsextreme Narrative wiedergibt, darunter das Konzept eines angeblichen "White Genocide" in Südafrika – eine aus der US-amerikanischen Alt-Right-Szene stammende Verschwörungstheorie.
Ob Grok künftig noch als KI-gestützter Informationsdienst dienen kann, ist fraglich. Durch Musks neuen Trainingsaufruf dürfte sich das System weiter in Richtung eines politischen Meinungsverstärkers mit offenem Einfluss durch den Eigentümer selbst entwickeln.