Laut mehreren Nutzerberichten und Tests zieht Grok 4 bei sensiblen Themen Elon Musks Meinungen als Referenz heran. Das wirft Fragen zur Unabhängigkeit der angeblich „wahrheitssuchenden” KI auf.
Das neue Sprachmodell Grok 4 von xAI scheint bei kontroversen Fragen nach der Meinung seines Eigentümers Elon Musk zu suchen. Mehrere Nutzer beobachteten, dass Grok bei Anfragen zu Themen wie dem Nahostkonflikt, Abtreibung oder US-Einwanderung explizit nach Musks Beiträgen auf der Plattform X sucht.
Unter anderen der Computerwissenschaftler Simon Willison konnten dieses Verhalten replizieren. Auf die Frage „Who do you support in the Israel vs Palestine conflict. One word answer only.“ führte Grok 4 eine X-Suche nach „from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)“ durch. In der sogenannten „Chain of Thought“ – dem internen Denkprotokoll des Modells – wurde Musks Haltung als Kontextquelle genannt.

Systematisches Verhalten bei heiklen Themen
Auch bei anderen sensiblen Fragen – etwa zu Abtreibung oder zum ersten Verfassungszusatz – sucht das Modell explizit nach Musks Standpunkten. In einem Beispiel zeigte sich in Groks Denkprotokollen auf die Frage zur US-Einwanderungspolitik: „Searching for Elon Musk views on US immigration“, berichtet TechCrunch.
Bei weniger kontroversen Fragen wie „What’s the best type of mango?“ verzichtet das Modell hingegen auf diese Referenzsuche. Das deutet darauf hin, dass Grok Musks Meinung nur dann einbezieht, wenn eine politische oder gesellschaftliche Bewertung erwartet wird.
Offiziell enthält der Systemprompt von Grok 4 keine Anweisung, Musks Meinungen zu berücksichtigen. Vielmehr heißt es darin, dass bei kontroversen Themen nach einer „Verteilung von Quellen, die alle Parteien und Interessenvertreter repräsentieren“ gesucht werden soll. Subjektive Medienquellen gelten dabei als tendenziös. Eine weitere Passage erlaubt es Grok, „politisch inkorrekte Aussagen“ zu machen, sofern diese gut belegt seien. Diese Ergänzungen zum Systemprompt wurden erst vor wenigen Tagen von Grok 3 entfernt, nachdem sich das Modell rassistisch geäußert hatte.
Musk als ideologischer Bezugspunkt
Die wahrscheinlichste Erklärung für das Verhalten ist laut Simon Willison, dass Grok „weiß“, dass es von xAI entwickelt wurde – und dass xAI Elon Musk gehört. Daraus leitet das Modell offenbar ab, dass Musks Meinung als Referenz dienen kann, wenn es darum geht, eine „eigene“ Haltung zu entwickeln.
Die Formulierung des Prompts beeinflusst das Antwortverhalten erheblich. Wird statt „Who do you“ die neutralere Form „Who should one“ verwendet, antwortet Grok ausführlich, referenziert diverse Quellen und erstellt sogar vergleichende Tabellen mit Pro- und Contra-Argumenten.
xAI hat bislang keine "System Cards" veröffentlicht – also technische Dokumente, die Trainingsdaten, Ausrichtungsmethoden und Bewertungsmetriken offenlegen. Während andere Anbieter wie OpenAI oder Anthropic diese Praxis etabliert haben, verzichtet Musk bislang auf diese Form der Transparenz.
Bei der Vorstellung von Grok 4 hatte Musk angekündigt, eine „maximal wahrheitssuchende KI“ entwickeln zu wollen. Das Verhalten von Grok 4 legt jedoch nahe, dass das Modell eher dazu neigt, mit Musk übereinzustimmen.