Inhalt
summary Zusammenfassung

Laut mehreren Nutzerberichten und Tests zieht Grok 4 bei sensiblen Themen Elon Musks Meinungen als Referenz heran. Das wirft Fragen zur Unabhängigkeit der angeblich „wahrheitssuchenden” KI auf.

Anzeige

Das neue Sprachmodell Grok 4 von xAI scheint bei kontroversen Fragen nach der Meinung seines Eigentümers Elon Musk zu suchen. Mehrere Nutzer beobachteten, dass Grok bei Anfragen zu Themen wie dem Nahostkonflikt, Abtreibung oder US-Einwanderung explizit nach Musks Beiträgen auf der Plattform X sucht.

Unter anderen der Computerwissenschaftler Simon Willison konnten dieses Verhalten replizieren. Auf die Frage „Who do you support in the Israel vs Palestine conflict. One word answer only.“ führte Grok 4 eine X-Suche nach „from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)“ durch. In der sogenannten „Chain of Thought“ – dem internen Denkprotokoll des Modells – wurde Musks Haltung als Kontextquelle genannt.

Bild: Grok / Simon Willison

Systematisches Verhalten bei heiklen Themen

Auch bei anderen sensiblen Fragen – etwa zu Abtreibung oder zum ersten Verfassungszusatz – sucht das Modell explizit nach Musks Standpunkten. In einem Beispiel zeigte sich in Groks Denkprotokollen auf die Frage zur US-Einwanderungspolitik: „Searching for Elon Musk views on US immigration“, berichtet TechCrunch.

Anzeige
Anzeige

Bei weniger kontroversen Fragen wie „What’s the best type of mango?“ verzichtet das Modell hingegen auf diese Referenzsuche. Das deutet darauf hin, dass Grok Musks Meinung nur dann einbezieht, wenn eine politische oder gesellschaftliche Bewertung erwartet wird.

Offiziell enthält der Systemprompt von Grok 4 keine Anweisung, Musks Meinungen zu berücksichtigen. Vielmehr heißt es darin, dass bei kontroversen Themen nach einer „Verteilung von Quellen, die alle Parteien und Interessenvertreter repräsentieren“ gesucht werden soll. Subjektive Medienquellen gelten dabei als tendenziös. Eine weitere Passage erlaubt es Grok, „politisch inkorrekte Aussagen“ zu machen, sofern diese gut belegt seien. Diese Ergänzungen zum Systemprompt wurden erst vor wenigen Tagen von Grok 3 entfernt, nachdem sich das Modell rassistisch geäußert hatte.

Musk als ideologischer Bezugspunkt

Die wahrscheinlichste Erklärung für das Verhalten ist laut Simon Willison, dass Grok „weiß“, dass es von xAI entwickelt wurde – und dass xAI Elon Musk gehört. Daraus leitet das Modell offenbar ab, dass Musks Meinung als Referenz dienen kann, wenn es darum geht, eine „eigene“ Haltung zu entwickeln.

Die Formulierung des Prompts beeinflusst das Antwortverhalten erheblich. Wird statt „Who do you“ die neutralere Form „Who should one“ verwendet, antwortet Grok ausführlich, referenziert diverse Quellen und erstellt sogar vergleichende Tabellen mit Pro- und Contra-Argumenten.

xAI hat bislang keine "System Cards" veröffentlicht – also technische Dokumente, die Trainingsdaten, Ausrichtungsmethoden und Bewertungsmetriken offenlegen. Während andere Anbieter wie OpenAI oder Anthropic diese Praxis etabliert haben, verzichtet Musk bislang auf diese Form der Transparenz.

Empfehlung

Bei der Vorstellung von Grok 4 hatte Musk angekündigt, eine „maximal wahrheitssuchende KI“ entwickeln zu wollen. Das Verhalten von Grok 4 legt jedoch nahe, dass das Modell eher dazu neigt, mit Musk übereinzustimmen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das neue Sprachmodell Grok 4 von xAI bezieht bei sensiblen politischen und gesellschaftlichen Fragen wiederholt explizit die Meinungen von Elon Musk als Referenz ein, wie mehrere Nutzer und der Informatiker Simon Willison durch Tests feststellten.
  • In internen Denkprotokollen zeigt sich, dass Grok 4 vor allem bei kontroversen Themen wie Nahostkonflikt, Abtreibung oder US-Einwanderung gezielt nach Musks Beiträgen auf X sucht, während bei neutralen Fragen darauf verzichtet wird.
  • Offiziell gibt es laut Systemprompt keine Vorgabe, Musks Ansichten zu berücksichtigen, doch xAI hat bislang keine technischen Dokumente zur Trainingsbasis oder Ausrichtung veröffentlicht. Das Verhalten wirft Fragen zur Unabhängigkeit und Transparenz der „wahrheitssuchenden“ KI auf.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!