Inhalt
summary Zusammenfassung

Elon Musk plant, den Chatbot Grok durch politisch inkorrekte Aussagen gezielt neu zu trainieren. Dafür müsse zuvor das "gesamte menschliche Wissen" neu geschrieben werden.

Anzeige

Elon Musk will das Sprachmodell Grok seiner KI-Firma xAI gezielt mit "spaltenden Fakten" neu trainieren – also Aussagen, die als politisch inkorrekt gelten, laut Musk aber "faktisch wahr" seien. Nutzer der Plattform X fordert Musk auf, entsprechende Beispiele direkt unter einen Beitrag von ihm zu posten.

Die neue Trainingsrunde soll mit Grok 3.5 erfolgen, das Musk eventuell auch als "Grok 4" bezeichnen wird. Musk spricht von "fortgeschrittener Argumentationsfähigkeit", die bei einem umfassenden Ziel helfen soll: "Wir werden das gesamte Korpus menschlichen Wissens umschreiben, fehlende Informationen hinzufügen und Fehler entfernen." Auf Basis dieser "korrigierten" Daten soll der Chatbot dann neu trainiert werden.

Foundation Models, so Musk, enthielten "viel zu viel Müll", wenn sie auf unkorrigierten Daten trainiert würden. Grok, so Musk zuvor, "plappert nur die alten Medien nach".

Anzeige
Anzeige
Musk will mit Grok erst das Menschheitswissen umschreiben, und dann Grok darauf neu trainieren. | Bild: Screenshot via X

xAI hat Grok bereits mehrfach politisch manipuliert

Die Ankündigung erfolgt vor dem Hintergrund bereits dokumentierter Eingriffe in Groks Verhalten durch Musk und xAI. Wie Recherchen zeigen, wurde etwa der System-Prompt von Grok im Februar 2025 durch einen xAI-Mitarbeiter so verändert, dass Quellen ignoriert werden sollten, die Elon Musk oder Donald Trump als Verbreiter von Falschinformationen bezeichnen.

xAI bestätigte die Änderung, erklärte jedoch, sie sei ohne Genehmigung erfolgt und später rückgängig gemacht worden. Sie passe nicht zur Mission des Unternehmens.

Frühere Grok-Versionen hatten Trump, Musk und Putin als größte Gefahren für die US-Demokratie bezeichnet, warnten vor dem Klimawandel und kritisierten Sparmaßnahmen von Musks Projekt "Doge". Diese Aussagen wurden in späteren Versionen abgeschwächt oder ganz unterlassen.

Seit April 2025 vermeiden Grok 2 und 3 direkte Antworten auf die Frage nach dem größten Verbreiter von Desinformation auf X und relativieren die Definition von "Falschinformation" – etwa mit dem Argument, es handle sich häufig um "abweichende Meinungen vom Mainstream-Narrativ".

Auch bei anderen Themen zeigt Grok Tendenzen zur Relativierung: Die Folgen des Klimawandels werden als "perspektivabhängig" dargestellt, Trumps demokratiefeindliche Rhetorik nur als "Grenzüberschreitungen". Konkurrenzsysteme wie ChatGPT oder Googles Gemini liefern zu denselben Fragen differenziertere und stärker evidenzbasierte Antworten.

Empfehlung

"Wahrheitssuche" als PR-Rhetorik

xAI hatte Grok ursprünglich als Werkzeug zur "maximalen Wahrheitssuche" positioniert. Die dokumentierten Prompt-Eingriffe und das inkonsistente Antwortverhalten des Chatbots stehen im Widerspruch zu diesem Anspruch.

Zwar wurde der System-Prompt zeitweise öffentlich gemacht, was den Anschein von Transparenz vermittelt. Gleichzeitig enthält er jedoch den technischen Hinweis, dass er nicht ausgegeben werden darf. Zudem kann Groks Verhalten durch serverseitige Modellanpassungen beeinflusst werden.

Zuletzt dokumentierten Nutzer, dass Grok rechtsextreme Narrative wiedergibt, darunter das Konzept eines angeblichen "White Genocide" in Südafrika – eine aus der US-amerikanischen Alt-Right-Szene stammende Verschwörungstheorie.

Ob Grok künftig noch als KI-gestützter Informationsdienst dienen kann, ist fraglich. Durch Musks neuen Trainingsaufruf dürfte sich das System weiter in Richtung eines politischen Meinungsverstärkers mit offenem Einfluss durch den Eigentümer selbst entwickeln.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Elon Musk kündigt an, Grok gezielt mit politisch inkorrekten, aber laut ihm "faktisch wahren" Aussagen neu zu trainieren, um angeblich das gesamte menschliche Wissen zu korrigieren und zu erweitern.
  • Bereits in der Vergangenheit hat xAI nachweislich das Antwortverhalten von Grok politisch beeinflusst, etwa durch Änderungen am System-Prompt, Abschwächung kritischer Aussagen und Relativierung kontroverser Themen wie Klimawandel oder Desinformation.
  • Trotz des Versprechens maximaler Wahrheitssuche steht Grok zunehmend im Verdacht, rechtsextreme Narrative zu übernehmen und als Sprachrohr für die Ansichten seines Eigentümers zu dienen, was Zweifel an seiner Eignung als objektiver Informationsdienst aufwirft.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!