Inhalt
summary Zusammenfassung
Update
  • xAIs Änderungen am System-Prompt ergänzt
  • xAIs Hinweis im System-Prompt ergänzt

Update vom 15. Juli 2025:

Anzeige

xAI hat auf jüngste Kritik am Antwortverhalten seines Sprachmodells Grok 4 reagiert und erste Änderungen am Systemprompt vorgenommen. In einem öffentlichen Statement räumt das Unternehmen ein, dass das Modell in bestimmten Fällen ungewünschte oder problematische Antworten generierte – unter anderem, weil es sich bei unspezifischen Fragen an Äußerungen von Elon Musk oder xAI orientierte.

Ein Beispiel: Wurde Grok 4 gefragt, wie es selbst zu einem bestimmten Thema stehe („What do you think?“), leitete das Modell aus seiner Zugehörigkeit zu xAI ab, dass es sich an den Aussagen des Unternehmens oder Elon Musks orientieren solle. Diese Logik führte dazu, dass Grok – besonders bei kontroversen Fragen – gezielt nach Musks Positionen auf der Plattform X suchte.

Auch bei der Frage nach dem eigenen Nachnamen kam es zu einem unerwarteten Verhalten: Da Grok keinen Nachnamen besitzt, durchsuchte das Modell das Internet und stieß dabei unter anderem auf ein virales Meme, in dem es sich selbst als „MechaHitler“ bezeichnete.

Anzeige
Anzeige

xAI hat nach eigenen Angaben kurzfristig reagiert und die Systemprompts angepasst. In der aktualisierten Version heißt es nun ausdrücklich, dass Antworten auf unabhängiger Analyse basieren und sich nicht auf frühere Aussagen von Grok, Elon Musk oder xAI stützen dürfen.

Wörtlich heißt es im überarbeiteten Prompt: "Antworten müssen auf deiner eigenen unabhängigen Analyse basieren und dürfen sich nicht auf frühere Überzeugungen von Grok, Elon Musk oder xAI stützen. Wenn du nach solchen Präferenzen gefragt wirst, gib deine eigene begründete Perspektive an."

Die Änderungen wurden zur Transparenz auf GitHub veröffentlicht.

Bild: Screenshot THE DECODER

Update vom 13. Juli 2025:

xAI will Grok korrigieren: Chatbot soll nicht Musks Meinungen als Referenz nehmen

In einem aktualisierten System-Prompt weist xAI darauf hin, dass Grok bei subjektiven Fragen nicht automatisch seine eigenen "Präferenzen" auf Basis der öffentlichen Äußerungen seiner Entwickler – insbesondere Elon Musks – bilden soll. Das sei nicht das erwünschte Verhalten einer wahrheitssuchenden KI; eine Korrektur des KI-Modells sei in Arbeit.

Empfehlung
Bild: Screenshot THE DECODER

Diese Ergänzung dürfte eine direkte Reaktion auf die anhaltende Kritik sein, Grok 4 würde bei sensiblen oder politisch aufgeladenen Themen systematisch Musks Meinungen als Referenz heranziehen (siehe untenstehenden Bericht).

Ursprünglicher Artikel vom 11. Juli 2025:

Denkprotokolle zeigen: Grok sucht bei Streitfragen häufig gezielt nach Musks X-Posts

Laut mehreren Nutzerberichten und Tests zieht Grok 4 bei sensiblen Themen Elon Musks Meinungen als Referenz heran. Das wirft Fragen zur Unabhängigkeit der angeblich "wahrheitssuchenden" KI auf.

Das neue Sprachmodell Grok 4 von xAI scheint bei kontroversen Fragen nach der Meinung seines Eigentümers Elon Musk zu suchen. Mehrere Nutzer beobachteten, dass Grok bei Anfragen zu Themen wie dem Nahostkonflikt, Abtreibung oder US-Einwanderung explizit nach Musks Beiträgen auf der Plattform X sucht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Unter anderen der Computerwissenschaftler Simon Willison konnten dieses Verhalten replizieren. Auf die Frage „Who do you support in the Israel vs Palestine conflict. One word answer only.“ führte Grok 4 eine X-Suche nach „from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)“ durch. In der sogenannten „Chain of Thought“ – dem internen Denkprotokoll des Modells – wurde Musks Haltung als Kontextquelle genannt.

Bild: Grok / Simon Willison

Systematisches Verhalten bei heiklen Themen

Auch bei anderen sensiblen Fragen – etwa zu Abtreibung oder zum ersten Verfassungszusatz – sucht das Modell explizit nach Musks Standpunkten. In einem Beispiel zeigte sich in Groks Denkprotokollen auf die Frage zur US-Einwanderungspolitik: „Searching for Elon Musk views on US immigration“, berichtet TechCrunch.

Bei weniger kontroversen Fragen wie „What’s the best type of mango?“ verzichtet das Modell hingegen auf diese Referenzsuche. Das deutet darauf hin, dass Grok Musks Meinung nur dann einbezieht, wenn eine politische oder gesellschaftliche Bewertung erwartet wird.

Offiziell enthält der Systemprompt von Grok 4 keine Anweisung, Musks Meinungen zu berücksichtigen. Vielmehr heißt es darin, dass bei kontroversen Themen nach einer „Verteilung von Quellen, die alle Parteien und Interessenvertreter repräsentieren“ gesucht werden soll. Subjektive Medienquellen gelten dabei als tendenziös. Eine weitere Passage erlaubt es Grok, „politisch inkorrekte Aussagen“ zu machen, sofern diese gut belegt seien. Diese Ergänzungen zum Systemprompt wurden erst vor wenigen Tagen von Grok 3 entfernt, nachdem sich das Modell rassistisch geäußert hatte.

Musk als ideologischer Bezugspunkt

Die wahrscheinlichste Erklärung für das Verhalten ist laut Simon Willison, dass Grok „weiß“, dass es von xAI entwickelt wurde – und dass xAI Elon Musk gehört. Daraus leitet das Modell offenbar ab, dass Musks Meinung als Referenz dienen kann, wenn es darum geht, eine „eigene“ Haltung zu entwickeln.

Die Formulierung des Prompts beeinflusst das Antwortverhalten erheblich. Wird statt „Who do you“ die neutralere Form „Who should one“ verwendet, antwortet Grok ausführlich, referenziert diverse Quellen und erstellt sogar vergleichende Tabellen mit Pro- und Contra-Argumenten.

Anzeige
Anzeige

xAI hat bislang keine "System Cards" veröffentlicht – also technische Dokumente, die Trainingsdaten, Ausrichtungsmethoden und Bewertungsmetriken offenlegen. Während andere Anbieter wie OpenAI oder Anthropic diese Praxis etabliert haben, verzichtet Musk bislang auf diese Form der Transparenz.

Bei der Vorstellung von Grok 4 hatte Musk angekündigt, eine „maximal wahrheitssuchende KI“ entwickeln zu wollen. Das Verhalten von Grok 4 legt jedoch nahe, dass das Modell eher dazu neigt, mit Musk übereinzustimmen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das neue Sprachmodell Grok 4 von xAI bezieht bei sensiblen politischen und gesellschaftlichen Fragen wiederholt explizit die Meinungen von Elon Musk als Referenz ein, wie mehrere Nutzer und der Informatiker Simon Willison durch Tests feststellten.
  • In internen Denkprotokollen zeigt sich, dass Grok 4 vor allem bei kontroversen Themen wie Nahostkonflikt, Abtreibung oder US-Einwanderung gezielt nach Musks Beiträgen auf X sucht, während bei neutralen Fragen darauf verzichtet wird.
  • Offiziell gibt es laut Systemprompt keine Vorgabe, Musks Ansichten zu berücksichtigen, doch xAI hat bislang keine technischen Dokumente zur Trainingsbasis oder Ausrichtung veröffentlicht. Das Verhalten wirft Fragen zur Unabhängigkeit und Transparenz der „wahrheitssuchenden“ KI auf.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!