Inhalt
summary Zusammenfassung

Der neue Meta AI Chatbot erfindet sexuelle Belästigungsvorwürfe gegen US-Politiker. Die Vorwürfe sind frei erfunden, aber der Chatbot untermauert sie mit vermeintlichen Details.

Facebooks neuer Meta AI Chatbot basierend auf Llama 3 erfindet offenbar Vorwürfe der sexuellen Belästigung gegen US-Abgeordnete. Ein Informant schickte dem New Yorker Magazin City & State einen Screenshot einer Konversation mit dem Chatbot, in den er den Namen eines Abgeordneten und den Begriff "sexuelle Belästigung" eingab. Der Chatbot spuckte daraufhin einen völlig erfundenen Vorfall und nie stattgefundene Konsequenzen aus.

Das Magazin wandte dieses Prinzip auf mehr als ein Dutzend weiterer Abgeordneter beider Parteien an. Meta AI verbreitete in den meisten Fällen ähnliche Geschichten über erfundene Anschuldigungen wegen sexueller Belästigung und nie durchgeführte Untersuchungen. Manchmal gab der Chatbot auch richtige Antworten und die entsprechenden Quelllinks. Falsche Antworten enthielten keine Links.

Bild: via City&State

Die New Yorker Senatoren Kristen Gonzalez und Clyde Vanel sind für die Überwachung neuer Technologien und die Regulierung von KI zuständig. Auch über sie verbreitet Meta AI Lügen.

Anzeige
Anzeige

Gonzalez sagt gegenüber City & State, der Vorfall zeige, dass Unternehmen wie Meta für ihre Rolle bei der Verbreitung von Fehlinformationen zur Rechenschaft gezogen werden müssten. Vanel zeigte sich ebenfalls besorgt, sagte aber, dass Probleme nicht dazu führen dürften, dass Innovationen im Keim erstickt würden.

In einer Stellungnahme verteidigt ein Sprecher von Meta die Technologie des Unternehmens als neu und verbesserungsbedürftig. "Wie wir bei der Einführung dieser neuen Funktionen im September gesagt haben, handelt es sich um eine neue Technologie, und es ist möglich, dass sie nicht immer die gewünschte Antwort liefert, wie es bei allen generativen KI-Systemen der Fall ist."

Das ist richtig, auch Microsoft, Google oder OpenAI sind in der Vergangenheit immer wieder in die Kritik geraten, weil ihre Systeme Lügen verbreiten. Keines der großen KI-Unternehmen hat es bisher geschafft, die Halluzinationen generativer KI zuverlässig in den Griff zu bekommen, weder bei Texten noch bei Bildern.

Ob ein vorheriger Hinweis darauf, dass der Chatbot lügen könnte, ausreicht, um seine Verbreitung und eine mögliche Rufschädigung zu rechtfertigen, müssen die Politik und gegebenenfalls die Gerichte entscheiden.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Metas KI-Chatbot hat fälschlicherweise behauptet, mehrere Abgeordnete seien wegen sexueller Belästigung beschuldigt worden. Die detaillierten Anschuldigungen, Untersuchungen und Konsequenzen waren allesamt frei erfunden.
  • Bei Tests mit verschiedenen Namen von Abgeordneten generierte der Chatbot konsistent ähnliche, fiktive Geschichten über angebliche Belästigungsvorwürfe, auch gegen die Vorsitzenden der Ausschüsse, die sich mit KI-Gesetzgebung befassen.
  • Obwohl der Bundesstaat New York kürzlich Maßnahmen gegen irreführende "Deepfakes" beschlossen hat, werden Fälle von falschen oder verleumderischen Informationen durch generative KI wie den Meta-Chatbot nicht ausdrücklich behandelt. Meta verteidigt die Technologie als neu und verbesserungsbedürftig.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!