Google begrenzt den Einsatz seiner KI-Produkte für die US-Wahlen 2024. Das wirft Fragen zur Zuverlässigkeit von KI-generierten Informationen auch in anderen Bereichen auf.
Google hat angekündigt, die Nutzung seiner generativen KI-Produkte im Kontext der US-Wahlen 2024 einzuschränken. Betroffen sind unter anderem die KI-Zusammenfassungen in der Suchmaschine, bei YouTube Live-Chats, in der Bildersuche und in den Gemini-Apps.
Das Unternehmen begründet diesen Schritt damit, dass Nutzer bei Wahlen auf Bundes- und Landesebene auf zuverlässige und aktuelle Informationen angewiesen seien. Google räumt ein, dass die neue Technologie Fehler machen könne, insbesondere wenn sich Nachrichten überschlagen.
Auch andere KI-Anbieter wie Microsoft, ChatGPT und gezwungenermaßen sogar Grok verweigern KI-generierte Antworten auf wahlrelevante Anfragen und verweisen stattdessen auf offizielle Quellen. Hintergrund sind drohende Strafen für die Verbreitung falscher Wahlinformationen.
Googles Vorsichtsmaßnahmen werfen jedoch die Frage auf, warum ähnliche Einschränkungen nicht für andere Themen gelten. So antwortete Google AI beim Start der AI Overviews sogar auf medizinische Fragen. Folgt man der Argumentation von Google bezüglich der KI-Restriktionen bei den US-Wahlen, so geht man hier bewusst das Risiko von Fehlinformationen ein.
Übernimmt Google die Verantwortung für diese Antworten, wie es ein Verlag tun müsste? Zählt Google künftig als publizistische Einheit? Diese Frage ist noch offen.
Kontext ist wichtig
Ein weiteres Problem: Bei KI-Antworten in einem Chatfenster geht der Kontext der Originalquelle verloren. Das kann zu manipulierten Informationen führen, auch wenn das KI-System korrekt zitiert. Denn die Intention eines Textes muss im Kontext der Umgebung verstanden werden, in der er erscheint.
Ein Beispiel: Kürzlich tauchte in meinen "Antwort"-Ergebnissen von Perplexity zu einer nicht wahlbezogenen Suchanfrage eine Antwort auf, die aus einem Text einer bekannten Medienmarke zitiert wurde.
Tatsächlich stammte der Inhalt aus einer bezahlten Werbeanzeige, einem sogenannten Advertorial. Auf der Website der Medienmarke war diese Werbekennzeichnung zu sehen, in der KI-Antwort fehlte sie.
Für einzelne, bekannte Medienmarken kann ein solches Missverständnis durch gezielteres Crawling behoben werden. Für das gesamte Internet mit Millionen von kleinen und großen Verlagen, Blogs etc. eher nicht.
Hinzu kommt, dass die Sprachmodelle hinter KI-Antwort- und -Suchmaschinen mit einfachen Tricks wie versteckten Anweisungen im Webseitentext leicht angreifbar sind, wie Perplexity-CEO Aravind Srinivas kürzlich in einem Podcast einräumte.
Wer überprüft überhaupt Quellen?
Perplexity verzichtet vorerst auf Einschränkungen für die US-Wahl und will nach eigenen Angaben stattdessen verlässliche und bekannte Quellen zitieren. Zudem könnten Nutzer die KI-Antworten anhand der ausgespielten Quellen verifizieren.
Eine einfache Aussage, die jedoch auf einer entscheidenden Annahme beruht: dass die Nutzerinnen und Nutzer tatsächlich klicken, um die Quellen zu verifizieren, wodurch die zeitsparenden Vorteile eines KI-Assistenten zunichtegemacht würden. Dieser Überprüfungsprozess könnte leicht länger dauern als die direkte Suche auf einigen vertrauenswürdigen Nachrichtenseiten.
Perplexity könnte seinen Vorschlag leicht validieren, indem es die Klickraten für die zitierten Quellen veröffentlicht. Diese Daten, über die das Unternehmen vermutlich verfügt, würden konkrete Hinweise auf die Überprüfungsgewohnheiten der Nutzer liefern. Perplexity hat diese Informationen jedoch nicht veröffentlicht.
Eine Untersuchung des Reuters Institute for Politics vom Juni 2024 zeigt, dass Chatbots neben korrekten Informationen auch Halbwahrheiten und Fehlinformationen zu Wahlthemen verbreiten.
Die Annahme, dass Nutzerinnen und Nutzer die Informationen eines Chatbots verifizieren, kommentiert das Institut wie folgt: "Die Benutzer bemerken diese Fehler vielleicht nicht immer (und wir haben sie oft erst bemerkt, als wir die Antworten Aussage für Aussage überprüft haben), da diese Systeme einen autoritativen Ton anschlagen und eine einzige Antwort anstelle einer Ergebnisliste liefern. [...] Zwar weisen alle Systeme mit kleinen Hinweisen auf mögliche Ungenauigkeiten hin, aber wir können nicht sagen, wie viel Aufmerksamkeit die Menschen diesen Hinweisen schenken und wenn ja, wie sich dies auf ihre Wahrnehmung auswirkt."
Das Institut weist aber auch darauf hin, dass Chatbots nur von wenigen Menschen genutzt werden und sie typischerweise nur eine von vielen Informationsquellen sind. Das begrenze derzeit ihr Schadenspotenzial.
In der Zwischenzeit haben Meta AI und OpenAI schnell wachsende Nutzerzahlen bekannt gegeben: OpenAI erreicht 200 Millionen wöchentlich aktive Nutzer für ChatGPT und Meta erreicht 400 Millionen monatlich aktive Nutzer für Meta AI.