OpenAI verzeichnete an den beiden Tagen der US-Wahl zwei Millionen registrierte Anfragen, die aus Sicherheitsgründen an eine verifizierte Quelle für Wahlinformationen weitergeleitet wurden.
Aus Angst vor Fehlinformationen hat OpenAI während der US-Wahlen 2024 strenge Sicherheitsvorkehrungen getroffen und Millionen von ChatGPT-Anfragen zu Wahlergebnissen nicht direkt beantwortet. Stattdessen wurden die Nutzer an verifizierte Nachrichtenquellen wie Associated Press und Reuters weitergeleitet, wie das Unternehmen mitteilte.
Allein am Wahltag und am Tag danach wurden laut OpenAI rund zwei Millionen ChatGPT-Anfragen zu den Wahlergebnissen registriert. Im Monat vor der Wahl leitete das System außerdem etwa eine Million Anfragen zur Wahlorganisation an die offizielle Website CanIVote.org weiter.
OpenAI betont, dass ChatGPT auch auf direkte Nachfrage keine politischen Präferenzen oder Wahlempfehlungen aussprechen durfte. Im Vorfeld der Wahlen ließ OpenAI jedoch wochenlang politisch motivierte "CustomGPTs" online, die etwa X-Posts im Stil von Donald Trump verfassten. Über Wochen hinweg wiederholte Anfragen zum Moderationsprozess der politischen CustomGPTs ließ OpenAI unbeantwortet.
OpenAI blockiert politische KI-Bilder, aber der Zug ist längst abgefahren
Sind drei Millionen ChatGPT-Suchanfragen zu Wahlthemen oder rund vier Millionen Aufrufe der Perplexity Wahlseite viel oder wenig? Große Medienunternehmen wie CNN haben ein Vielfaches an Seitenaufrufen, ganz zu schweigen von Googles Milliarden Suchanfragen pro Tag.
Die absolute Zahl ist jedoch nur eine Momentaufnahme, entscheidend ist die Wachstumsgeschwindigkeit der Angebote. Wie schnell ChatGPT im Nachrichtenbereich wachsen kann und ob sich das teuer erkaufte Publisher-Gefangenendilemma für OpenAI auszahlt, wird sich in den nächsten Monaten zeigen.
Ein weiterer Schwerpunkt von OpenAI im Kontext der Wahlsicherheit war die Verhinderung von KI-Fake-Bildern. Nach eigenen Angaben blockierte OpenAI im Monat vor der Wahl mehr als 250.000 Versuche, mit DALL-E Bilder von Politikern wie Präsident Biden, Donald Trump oder Vizepräsidentin Harris zu generieren.
Das ist begrüßenswert, fällt aber angesichts der weitverbreiteten Verfügbarkeit von KI-Bildgeneratoren ohne großen Sicherheitsstandard nicht mehr ins Gewicht, insbesondere wenn der designierte US-Präsident Trump selbst solche Bilder für seinen Wahlkampf nutzt.
Fehler in KI-Suchen: Anbieter sind intransparent
Bedenklich ist hingegen, wie intransparent OpenAI mit der Tatsache umgeht, dass die ChatGPT-Suche Fehler ("Halluzinationen") erzeugt, Inhalte aus unterschiedlich vertrauenswürdigen Quellen in nicht nachvollziehbarer Weise zusammenstellt und zudem einzelne, bezahlte Nachrichtenquellen bevorzugt ausspielt.
Weder werden diese Risiken und Verzerrungen prominent in den Suchergebnissen angezeigt, noch beantwortet das Unternehmen konkrete Anfragen zu den Halluzinationsraten in den Suchergebnissen.
Auf wiederholte Nachfragen, ob Fehler speziell in der ChatGPT-Suche ausgewertet werden - eine zwar zeitaufwendige, aber methodisch lösbare Aufgabe - gibt OpenAI nur die ausweichende Antwort, dass man sich allgemein mit dem Thema Halluzinationen beschäftige.
Immerhin hat OpenAI reagiert, wenn auch nicht geantwortet. Perplexity und Google haben auch auf wiederholte Anfragen nicht einmal reagiert.
Das Schweigen der KI-Suchanbieter auf eine so grundlegende Frage beschreibt den aktuellen Stand der Technologie besser als viele Worte. Es ist einfacher zu behaupten, dass die eigene KI-Suche keine oder nur wenige Fehler aufweist, wenn man die Fehler einfach nicht misst.