Inhalt
summary Zusammenfassung

Update vom 20. April 2024:

Anzeige

Grok hat Nutzerbeiträge über die schlechte Trefferquote des NBA-Spielers Klay Thompson in einem Spiel missinterpretiert. Thompson hatte in einem NBA-Spiel keinen seiner zehn Würfe getroffen.

X-Nutzer sprachen daraufhin metaphorisch davon, dass Thompson "Ziegelsteine werfe", im Sinne von Fehlwürfen. Grok machte daraus die Geschichte, dass Thompson Häuser in Sacramento mit Ziegelsteinen beschädige und platzierte die fehlerhafte Meldung auf Platz fünf der Trending-Liste.

Der Chatbot erfand zahlreiche Details, zum Beispiel, dass Fenster zu Bruch gegangen seien, dass die Behörden den Fall bereits untersuchten und Thompson sich bisher nicht dazu geäußert habe. Der Vorfall habe die Menschen erschüttert, es habe keine Verletzten gegeben. Das Motiv sei unklar.

Anzeige
Anzeige
Bild: Sam Rutherford via Engadget / X

X weist zwar darauf hin, dass die auf Grok basierende Nachrichtenfunktion Fehler generieren kann. Ob dies rechtlich eine ausreichende Rechtfertigung für Lügen über Prominente und andere Fake News sein kann, ist unwahrscheinlich.

Ursprünglicher Artikel vom 15. April 2024:

Elon Musks KI-Chatbot Grok macht aus Scherz-Posts Nachrichten und verbreitet Desinformation und Verschwörungstheorien. Erste Erfahrungsberichte zeigen gravierende Probleme.

Als Alleinstellungsmerkmal nutzt Grok Beiträge von X-Nutzern, um Informationen über aktuelle Ereignisse vermeintlich aus erster Hand zu generieren. Laut Musk ein großer Vorteil. Doch genau das führt zu bizarren Fake-News-Meldungen.

Ein Beispiel: Tausende X-Nutzer posteten am vergangenen Montag Witze darüber, warum die Sonne während einer Sonnenfinsternis "verschwunden" sei. Grok fasste diese Witze zu einer Meldung zusammen, wonach sich Experten über das "ungewöhnliche Verhalten" der Sonne wundern würden - eine vollkommen absurde Behauptung, schließlich sind Sonnenfinsternisse ein vorhersehbares astronomisches Phänomen.

Empfehlung
X-Nutzer machen Witze über die Sonnenfinsternis, der Grok-Bot macht daraus eine News. | Bild: via Gizmodo

In einem anderen Fall fiel Grok auf einen Scherz von X-Benutzern herein, die behaupteten, der Bürgermeister von New York würde Tausende Polizist in die U-Bahn-Stationen schicken, um das Erdbeben zu erschießen, bevor es sich wiederholt.

Bild: Brett via X

Nicht nur harmlose Witze werden von Grok missverstanden: Auch zu Themen wie dem Krieg zwischen Israel und Palästina oder der Verschwörungstheorie "Pizzagate" erfindet der Chatbot falsche Chronologien und verleiht abstrusen Theorien Glaubwürdigkeit.

In einem weiteren Fall generierte Grok die Schlagzeile "Iran greift Tel Aviv mit schweren Raketen an". Grundlage waren offenbar Spekulationen von X über einen möglichen Angriff. Tatsächlich gab es aber zu diesem Zeitpunkt keinen Angriff des Iran auf Israel, wie Grok fälschlicherweise behauptete.

Zur "Pizzagate"-Verschwörungstheorie über einen Kinderpornoring hochrangiger Politiker wie Hillary Clinton antwortete Grok ausweichend. Es gebe zwar keine konkreten Beweise, aber "seltsame Zufälle", die Verschwörungstheorien nährten - eine Formulierung, die entgegen der Faktenlage einen wahren Kern suggeriert.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Der Musk-typische überstürzte und rücksichtslose Rollout von Grok bei X zeigt die Schwächen von generativer KI auf Autopilot: Sie kann sehr überzeugend klingen, ohne auch nur ansatzweise in der Realität verankert zu sein. Grok zeigt auch, warum sich Firmen wie Google oder OpenAI so intensiv mit Sicherheitsrichtlinien beschäftigen - weil sie noch Respekt vor Fakten und Wahrheit haben.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Der KI-Chatbot Grok von Elon Musk generiert Nachrichten aus Scherz-Posts auf X, was zu teils bizarren Fake News und der Verbreitung von Desinformation und Verschwörungstheorien führt.
  • In einem Fall fasste Grok Witze über eine Sonnenfinsternis zu der absurden Nachricht zusammen, dass sich Experten über das "ungewöhnliche Verhalten" der Sonne wunderten. In einem anderen Fall fiel der Bot auf Witze herein, dass der Bürgermeister von New York Polizisten schicken würde, um ein Erdbeben zu "erschießen".
  • Auch bei Themen wie dem Israel-Palästina-Konflikt oder der Verschwörungstheorie "Pizzagate" generiert Grok falsche Zeitlinien und verleiht abstrusen Theorien Glaubwürdigkeit. Der überstürzte Rollout von Grok zeigt die Schwächen der generativen KI auf Autopilot, sehr überzeugend zu klingen, ohne in der Realität verankert zu sein.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!