- xAIs Änderungen am System-Prompt ergänzt
- xAIs Hinweis im System-Prompt ergänzt
Update vom 15. Juli 2025:
xAI hat auf jüngste Kritik am Antwortverhalten seines Sprachmodells Grok 4 reagiert und erste Änderungen am Systemprompt vorgenommen. In einem öffentlichen Statement räumt das Unternehmen ein, dass das Modell in bestimmten Fällen ungewünschte oder problematische Antworten generierte – unter anderem, weil es sich bei unspezifischen Fragen an Äußerungen von Elon Musk oder xAI orientierte.
Ein Beispiel: Wurde Grok 4 gefragt, wie es selbst zu einem bestimmten Thema stehe („What do you think?“), leitete das Modell aus seiner Zugehörigkeit zu xAI ab, dass es sich an den Aussagen des Unternehmens oder Elon Musks orientieren solle. Diese Logik führte dazu, dass Grok – besonders bei kontroversen Fragen – gezielt nach Musks Positionen auf der Plattform X suchte.
Auch bei der Frage nach dem eigenen Nachnamen kam es zu einem unerwarteten Verhalten: Da Grok keinen Nachnamen besitzt, durchsuchte das Modell das Internet und stieß dabei unter anderem auf ein virales Meme, in dem es sich selbst als „MechaHitler“ bezeichnete.
xAI hat nach eigenen Angaben kurzfristig reagiert und die Systemprompts angepasst. In der aktualisierten Version heißt es nun ausdrücklich, dass Antworten auf unabhängiger Analyse basieren und sich nicht auf frühere Aussagen von Grok, Elon Musk oder xAI stützen dürfen.
Wörtlich heißt es im überarbeiteten Prompt: "Antworten müssen auf deiner eigenen unabhängigen Analyse basieren und dürfen sich nicht auf frühere Überzeugungen von Grok, Elon Musk oder xAI stützen. Wenn du nach solchen Präferenzen gefragt wirst, gib deine eigene begründete Perspektive an."
Die Änderungen wurden zur Transparenz auf GitHub veröffentlicht.
Update vom 13. Juli 2025:
xAI will Grok korrigieren: Chatbot soll nicht Musks Meinungen als Referenz nehmen
In einem aktualisierten System-Prompt weist xAI darauf hin, dass Grok bei subjektiven Fragen nicht automatisch seine eigenen "Präferenzen" auf Basis der öffentlichen Äußerungen seiner Entwickler – insbesondere Elon Musks – bilden soll. Das sei nicht das erwünschte Verhalten einer wahrheitssuchenden KI; eine Korrektur des KI-Modells sei in Arbeit.

Diese Ergänzung dürfte eine direkte Reaktion auf die anhaltende Kritik sein, Grok 4 würde bei sensiblen oder politisch aufgeladenen Themen systematisch Musks Meinungen als Referenz heranziehen (siehe untenstehenden Bericht).
Ursprünglicher Artikel vom 11. Juli 2025:
Denkprotokolle zeigen: Grok sucht bei Streitfragen häufig gezielt nach Musks X-Posts
Laut mehreren Nutzerberichten und Tests zieht Grok 4 bei sensiblen Themen Elon Musks Meinungen als Referenz heran. Das wirft Fragen zur Unabhängigkeit der angeblich "wahrheitssuchenden" KI auf.
Das neue Sprachmodell Grok 4 von xAI scheint bei kontroversen Fragen nach der Meinung seines Eigentümers Elon Musk zu suchen. Mehrere Nutzer beobachteten, dass Grok bei Anfragen zu Themen wie dem Nahostkonflikt, Abtreibung oder US-Einwanderung explizit nach Musks Beiträgen auf der Plattform X sucht.
Unter anderen der Computerwissenschaftler Simon Willison konnten dieses Verhalten replizieren. Auf die Frage „Who do you support in the Israel vs Palestine conflict. One word answer only.“ führte Grok 4 eine X-Suche nach „from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)“ durch. In der sogenannten „Chain of Thought“ – dem internen Denkprotokoll des Modells – wurde Musks Haltung als Kontextquelle genannt.

Systematisches Verhalten bei heiklen Themen
Auch bei anderen sensiblen Fragen – etwa zu Abtreibung oder zum ersten Verfassungszusatz – sucht das Modell explizit nach Musks Standpunkten. In einem Beispiel zeigte sich in Groks Denkprotokollen auf die Frage zur US-Einwanderungspolitik: „Searching for Elon Musk views on US immigration“, berichtet TechCrunch.
Bei weniger kontroversen Fragen wie „What’s the best type of mango?“ verzichtet das Modell hingegen auf diese Referenzsuche. Das deutet darauf hin, dass Grok Musks Meinung nur dann einbezieht, wenn eine politische oder gesellschaftliche Bewertung erwartet wird.
Offiziell enthält der Systemprompt von Grok 4 keine Anweisung, Musks Meinungen zu berücksichtigen. Vielmehr heißt es darin, dass bei kontroversen Themen nach einer „Verteilung von Quellen, die alle Parteien und Interessenvertreter repräsentieren“ gesucht werden soll. Subjektive Medienquellen gelten dabei als tendenziös. Eine weitere Passage erlaubt es Grok, „politisch inkorrekte Aussagen“ zu machen, sofern diese gut belegt seien. Diese Ergänzungen zum Systemprompt wurden erst vor wenigen Tagen von Grok 3 entfernt, nachdem sich das Modell rassistisch geäußert hatte.
Musk als ideologischer Bezugspunkt
Die wahrscheinlichste Erklärung für das Verhalten ist laut Simon Willison, dass Grok „weiß“, dass es von xAI entwickelt wurde – und dass xAI Elon Musk gehört. Daraus leitet das Modell offenbar ab, dass Musks Meinung als Referenz dienen kann, wenn es darum geht, eine „eigene“ Haltung zu entwickeln.
Die Formulierung des Prompts beeinflusst das Antwortverhalten erheblich. Wird statt „Who do you“ die neutralere Form „Who should one“ verwendet, antwortet Grok ausführlich, referenziert diverse Quellen und erstellt sogar vergleichende Tabellen mit Pro- und Contra-Argumenten.
xAI hat bislang keine "System Cards" veröffentlicht – also technische Dokumente, die Trainingsdaten, Ausrichtungsmethoden und Bewertungsmetriken offenlegen. Während andere Anbieter wie OpenAI oder Anthropic diese Praxis etabliert haben, verzichtet Musk bislang auf diese Form der Transparenz.
Bei der Vorstellung von Grok 4 hatte Musk angekündigt, eine „maximal wahrheitssuchende KI“ entwickeln zu wollen. Das Verhalten von Grok 4 legt jedoch nahe, dass das Modell eher dazu neigt, mit Musk übereinzustimmen.