Inhalt
summary Zusammenfassung

Generative KI-Modelle wie Meta AI versagen immer wieder bei aktuellen Ereignissen. Die jüngsten Fehlreaktionen des Meta-Chatbots zum Attentat auf Trump zeigen systemische Schwächen der Technologie, die sich nicht einfach beheben lassen.

Anzeige

Wie Meta einräumt, sind die Antworten von Meta AI auf Daten beschränkt, mit denen sie trainiert wurden. Bei aktuellen Ereignissen wie dem Trump-Attentat, die nach dem Training stattfinden, kommt es daher "verständlicherweise zu Problemen", so das Unternehmen.

Meta hat die KI deshalb zunächst angewiesen, Fragen zum Attentat gar nicht zu beantworten und stattdessen eine generische Antwort zu geben, dass sie keine Informationen liefern könne. Das führte dazu, dass die KI sich weigerte, über das Ereignis zu sprechen.

In einigen Fällen behauptete die Meta AI sogar fälschlicherweise, das Attentat habe nicht stattgefunden. Meta hat die KI-Antworten zum Attentat inzwischen aktualisiert, räumt aber ein, dass dies schneller hätte geschehen müssen.

Anzeige
Anzeige

Bullshit ist ein Sprachmodell-Feature - und ein Problem für LLM-basierte Informationsangebote

Wie sich diese Probleme grundsätzlich beheben lassen, bleibt offen. Solche "Halluzinationen", auch "softer Bullshit" genannt, sind ein branchenweites Problem bei allen generativen KI-Systemen, auch Meta verweist darauf. Sie sind ein Feature der Technologie, keine Fehlfunktion.

In den meisten Fällen sei der KI-generierte Inhalt nützlich und relevant, sagt der bekannte KI-Entwickler Andrej Karpathy (Tesla, OpenAI). Wenn er jedoch falsch oder irreführend sei, würde man das als "Halluzination" bezeichnen. "Es sieht aus wie ein Fehler, obwohl das LLM nur das tut, was es immer tut."

Karpathy betrachtet LLMs als eine Mischung aus Suchmaschinen und Kreativitätswerkzeugen. Während Suchmaschinen lediglich bestehende Informationen wiedergeben und somit ein "Kreativitätsdefizit" haben, können LLMs aus ihren Trainingsdaten neue Inhalte erschaffen. Diese kreative Fähigkeit birgt jedoch die Gefahr, dass sie auch falsche oder irreführende Informationen produzieren.

Schwierig sind die kleinen, versteckten Fehler

Während die Fehler beim Trump-Attentat aufgrund der Prominenz des Themas schnell auffielen, dürften bei KI-Antworten zu weniger prominenten Themen viele Fehler unentdeckt bleiben.

Denn LLM-basierte Informationsangebote präsentieren Falschinformationen mit der gleichen Sicherheit wie korrekte Fakten. Für die Nutzerinnen und Nutzer ist kaum erkennbar, welchen Antworten sie vertrauen können, es sei denn, sie wissen es bereits besser.

Empfehlung

Ein anschauliches Beispiel dafür ist, dass OpenAI ein falsches Datum in seinem eigenen voraufgezeichneten Demo-Video (!) für SearchGPT nicht gefunden hat. Ähnliche Pannen sind Google wiederholt unterlaufen, und auch Microsofts KI-Suchimplementierungen haben bereits Falschmeldungen zu politisch relevanten Themen verbreitet.

Weil die Systeme so unsicher sind, haben beide Big-Tech-Konzerne einige Antworten schlicht deaktiviert, etwa zu Wahlen. Das zeigt, wie unsicher die Konzerne mit der Technologie sind. Ohne den ChatGPT-Hype hätten sie niemals solche sozialen und politischen Risiken auf sich genommen.

Problematisch ist auch der Verlust von Kontextinformationen zur Herkunft und Seriosität von Quellen. Das Aussehen einer Webseite, der Produktionswert eines Videos, welche Themen links und rechts stehen - all das kann Hinweise auf die Vertrauenswürdigkeit eines Informationsangebots geben, wird aber durch Chatbots wie Meta AI völlig ausgeblendet. Hier sieht jeder Satz gleich aus und wirkt gleich.

Es besteht die Gefahr, dass sich Fehlinformationen, insbesondere Details, schneller und unbemerkt verbreiten, wenn KI-Modelle zunehmend als Informationsquelle genutzt werden. Unternehmen wie Meta sind derzeit nicht in der Lage, die systematischen Schwächen von KI-Systemen zu beheben.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Nutzerinnen und Nutzer sollten sich daher darauf einstellen, dass KI-Assistenten auf absehbare Zeit keine verlässliche Alternative zu klassischen Informationsangeboten wie Suchmaschinen oder klassischen Medien sein werden, auch wenn sie dies vorgeben.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta AI hat Schwierigkeiten damit, Fragen zu aktuellen Ereignissen wie dem Attentat auf Donald Trump korrekt zu beantworten, da die Sprachmodelle auf Trainingsdaten beschränkt sind, die vor dem Ereignis erstellt wurden.
  • In einigen Fällen weigerte sich die KI, über das Attentat zu sprechen oder behauptete fälschlicherweise, es habe nicht stattgefunden. Solche "Halluzinationen" sind ein branchenweites Problem bei allen generativen KI-Systemen.
  • Die Unternehmen sind derzeit nicht in der Lage, die systematischen Schwächen der KI-Systeme zu beheben. Nutzer sollten sich darauf einstellen, dass generative KI auf absehbare Zeit keine verlässliche Alternative zu klassischen Informationsangeboten wie Suchmaschinen oder Medien sein wird.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!