Inhalt
summary Zusammenfassung

Google begrenzt den Einsatz seiner KI-Produkte für die US-Wahlen 2024. Das wirft Fragen zur Zuverlässigkeit von KI-generierten Informationen auch in anderen Bereichen auf.

Anzeige

Google hat angekündigt, die Nutzung seiner generativen KI-Produkte im Kontext der US-Wahlen 2024 einzuschränken. Betroffen sind unter anderem die KI-Zusammenfassungen in der Suchmaschine, bei YouTube Live-Chats, in der Bildersuche und in den Gemini-Apps.

Das Unternehmen begründet diesen Schritt damit, dass Nutzer bei Wahlen auf Bundes- und Landesebene auf zuverlässige und aktuelle Informationen angewiesen seien. Google räumt ein, dass die neue Technologie Fehler machen könne, insbesondere wenn sich Nachrichten überschlagen.

Auch andere KI-Anbieter wie Microsoft, ChatGPT und gezwungenermaßen sogar Grok verweigern KI-generierte Antworten auf wahlrelevante Anfragen und verweisen stattdessen auf offizielle Quellen. Hintergrund sind drohende Strafen für die Verbreitung falscher Wahlinformationen.

Anzeige
Anzeige

Googles Vorsichtsmaßnahmen werfen jedoch die Frage auf, warum ähnliche Einschränkungen nicht für andere Themen gelten. So antwortete Google AI beim Start der AI Overviews sogar auf medizinische Fragen. Folgt man der Argumentation von Google bezüglich der KI-Restriktionen bei den US-Wahlen, so geht man hier bewusst das Risiko von Fehlinformationen ein.

Übernimmt Google die Verantwortung für diese Antworten, wie es ein Verlag tun müsste? Zählt Google künftig als publizistische Einheit? Diese Frage ist noch offen.

Kontext ist wichtig

Ein weiteres Problem: Bei KI-Antworten in einem Chatfenster geht der Kontext der Originalquelle verloren. Das kann zu manipulierten Informationen führen, auch wenn das KI-System korrekt zitiert. Denn die Intention eines Textes muss im Kontext der Umgebung verstanden werden, in der er erscheint.

Ein Beispiel: Kürzlich tauchte in meinen "Antwort"-Ergebnissen von Perplexity zu einer nicht wahlbezogenen Suchanfrage eine Antwort auf, die aus einem Text einer bekannten Medienmarke zitiert wurde.

Tatsächlich stammte der Inhalt aus einer bezahlten Werbeanzeige, einem sogenannten Advertorial. Auf der Website der Medienmarke war diese Werbekennzeichnung zu sehen, in der KI-Antwort fehlte sie.

Empfehlung

Für einzelne, bekannte Medienmarken kann ein solches Missverständnis durch gezielteres Crawling behoben werden. Für das gesamte Internet mit Millionen von kleinen und großen Verlagen, Blogs etc. eher nicht.

Hinzu kommt, dass die Sprachmodelle hinter KI-Antwort- und -Suchmaschinen mit einfachen Tricks wie versteckten Anweisungen im Webseitentext leicht angreifbar sind, wie Perplexity-CEO Aravind Srinivas kürzlich in einem Podcast einräumte.

Wer überprüft überhaupt Quellen?

Perplexity verzichtet vorerst auf Einschränkungen für die US-Wahl und will nach eigenen Angaben stattdessen verlässliche und bekannte Quellen zitieren. Zudem könnten Nutzer die KI-Antworten anhand der ausgespielten Quellen verifizieren.

Eine einfache Aussage, die jedoch auf einer entscheidenden Annahme beruht: dass die Nutzerinnen und Nutzer tatsächlich klicken, um die Quellen zu verifizieren, wodurch die zeitsparenden Vorteile eines KI-Assistenten zunichtegemacht würden. Dieser Überprüfungsprozess könnte leicht länger dauern als die direkte Suche auf einigen vertrauenswürdigen Nachrichtenseiten.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Perplexity könnte seinen Vorschlag leicht validieren, indem es die Klickraten für die zitierten Quellen veröffentlicht. Diese Daten, über die das Unternehmen vermutlich verfügt, würden konkrete Hinweise auf die Überprüfungsgewohnheiten der Nutzer liefern. Perplexity hat diese Informationen jedoch nicht veröffentlicht.

Eine Untersuchung des Reuters Institute for Politics vom Juni 2024 zeigt, dass Chatbots neben korrekten Informationen auch Halbwahrheiten und Fehlinformationen zu Wahlthemen verbreiten.

Die Annahme, dass Nutzerinnen und Nutzer die Informationen eines Chatbots verifizieren, kommentiert das Institut wie folgt: "Die Benutzer bemerken diese Fehler vielleicht nicht immer (und wir haben sie oft erst bemerkt, als wir die Antworten Aussage für Aussage überprüft haben), da diese Systeme einen autoritativen Ton anschlagen und eine einzige Antwort anstelle einer Ergebnisliste liefern. [...] Zwar weisen alle Systeme mit kleinen Hinweisen auf mögliche Ungenauigkeiten hin, aber wir können nicht sagen, wie viel Aufmerksamkeit die Menschen diesen Hinweisen schenken und wenn ja, wie sich dies auf ihre Wahrnehmung auswirkt."

Das Institut weist aber auch darauf hin, dass Chatbots nur von wenigen Menschen genutzt werden und sie typischerweise nur eine von vielen Informationsquellen sind. Das begrenze derzeit ihr Schadenspotenzial.

In der Zwischenzeit haben Meta AI und OpenAI schnell wachsende Nutzerzahlen bekannt gegeben: OpenAI erreicht 200 Millionen wöchentlich aktive Nutzer für ChatGPT und Meta erreicht 400 Millionen monatlich aktive Nutzer für Meta AI.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google schränkt den Einsatz seiner KI-Produkte wie Suchergebnisse, YouTube-Live-Chats und Bildersuche im Kontext der US-Wahlen 2024 ein, da die Technologie Fehler machen könnte, schreibt Google.
  • Googles Vorsichtsmaßnahmen werfen die Frage auf, warum ähnliche Einschränkungen nicht auch für andere Themen gelten, bei denen das Unternehmen offenbar bewusst das Risiko von Fehlinformationen eingeht. Zudem ist unklar, ob Google dann auch die inhaltliche Verantwortung für diese Antworten übernimmt.
  • Auch andere Anbieter wie Microsoft und OpenAI lehnen KI-generierte Antworten auf wahlbezogene Anfragen ab. Die KI-Antwortmaschine Perplexity gibt stattdessen an, sich auf verlässliche Quellen stützen zu wollen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!