Inhalt
summary Zusammenfassung

Eine aktuelle Studie zeigt, dass acht führende KI-Suchmaschinen Schwierigkeiten haben, Nachrichteninhalte korrekt zu zitieren. Trotz Lizenzvereinbarungen mit Verlagen werden Quellen oft falsch oder unvollständig angegeben.

Anzeige

KI-Suchmaschinen gewinnen rasant an Popularität: Fast jede:r vierte Amerikaner:in hat bereits eine KI-Suchmaschine anstelle traditioneller Suchmaschinen genutzt. Doch eine neue Studie des Tow Center for Digital Journalism an der Columbia University zeigt erhebliche Mängel bei der Quellenangabe von Nachrichteninhalten auf.

Die Forschenden testeten acht KI-Suchmaschinen mit Live-Suchfunktion, darunter ChatGPT, Perplexity und Google Gemini. Dazu wählten sie zufällig Artikel von 20 Nachrichtenverlagen aus und gaben Textausschnitte daraus in die Suchmaschinen ein. Die Chatbots sollten dann Überschrift, Quelle, Erscheinungsdatum und URL des jeweiligen Artikels nennen.

Horizontales Balkendiagramm: Leistung verschiedener generativer Suchtools bei Identifikation von Quellenartikel und URL für Textauszüge, aufgeschlüsselt nach Antwortgenauigkeit.
Nur in einem kleinen Teil der Fälle lieferten die Tools vollständig korrekte Ergebnisse. | Bild: Columbia Journalism Review

Das ernüchternde Ergebnis: Insgesamt beantworteten die Suchmaschinen über 60 Prozent der Anfragen falsch. Perplexity schnitt mit 37 Prozent falscher Antworten noch am besten ab, Grok 3 lag mit 94 Prozent Fehlerquote am unteren Ende.

Anzeige
Anzeige

Bezahlmodelle sind nicht zuverlässiger als kostenlose Angebote

Überraschenderweise schnitten kostenpflichtige Premiummodelle wie Perplexity Pro oder Grok 3 nicht besser, sondern sogar schlechter ab als ihre kostenlosen Pendants.

Zwar beantworteten sie insgesamt mehr Anfragen korrekt, gaben aber paradoxerweise auch häufiger falsche Antworten anstatt zuzugeben, wenn sie die Antwort nicht wussten.

Balkendiagramm zur Leistung generativer Suchtools: Korrekte, falsche und nicht identifizierte Quellenangaben für extrahierte Textausschnitte.
Die Grafik veranschaulicht die Trefferquoten verschiedener generativer Suchtools bei der korrekten Identifizierung von Quellartikeln und deren Metadaten. | Bild: Columbia Journalism Review

Mehrere Chatbots schienen zudem die Einstellungen im Robots Exclusion Protocol zu missachten, mit denen Verlage den Zugriff auf ihre Inhalte steuern können. So griff etwa Perplexity auf Inhalte von National Geographic zu, obwohl der Verlag die Crawler von Perplexity eigentlich blockiert.

Matrix-Diagramm: Erreichbarkeit von Webinhalten für verschiedene Suchmaschinen und Crawling-Methoden trotz Blockierung.
Je nach verwendeter Suchmaschine und Suchmethode gelingt es Crawlern in unterschiedlichem Maße, an die Inhalte zu gelangen. | Bild: Columbia Journalism Review

Oft leiteten die KI-Suchmaschinen Nutzer auch auf Syndikations-Plattformen wie Yahoo News weiter anstatt auf die Originalquelle. Oder sie erfanden schlicht URLs, die ins Leere führten - bei Grok 3 und Google Gemini war das in über der Hälfte der Fälle so.

Lizenzdeals bieten keine Garantie für korrekte Zitate

Einige Verlage wie Hearst oder die Texas Tribune haben Lizenzvereinbarungen mit KI-Firmen wie OpenAI oder Perplexity geschlossen. Doch auch das führte nicht dazu, dass ihre Inhalte zuverlässiger zitiert wurden.

Empfehlung
Balkendiagramm: Genauigkeit generativer Suchtools zur Identifizierung von Herkunft, Publikation und URL von Artikeln anhand Lizenzvereinbarungen.
Die Grafik veranschaulicht, dass formale Lizenzierungsvereinbarungen nicht zwangsläufig zu einer präziseren Identifizierung und Zuordnung von Verlagsinhalten führen. | Bild: Columbia Journalism Review

So erkannte ChatGPT trotz der Partnerschaft von Hearst mit OpenAI nur einen von zehn getesteten Artikeln der San Francisco Chronicle korrekt. Und Perplexity verwies in mehreren Fällen auf syndizierte statt auf Originalversionen von Artikeln der Texas Tribune.

Die Ergebnisse zeigen, dass KI-Suchmaschinen noch einen langen Weg vor sich haben, um Nachrichteninhalte zuverlässig und transparent zu zitieren. Für Nachrichtenverlage bedeutet das eine Gratwanderung zwischen Sichtbarkeit und Kontrolle über ihre Inhalte.

Laut Mark Howard, COO des Time Magazine, arbeiten die KI-Firmen zwar an Verbesserungen. Doch er betont auch: "Wenn jemand als Verbraucher im Moment glaubt, dass eines dieser kostenlosen Produkte zu 100 Prozent genau ist, dann ist das seine eigene Schuld."

Auch eine Studie der BBC kam Mitte Februar zu dem Ergebnis, dass KI-Assistenten bei Nachrichtenfragen viele Fehler machen.  Zu den häufigsten Problemen gehörten falsche Fakten, unzureichende Quellenangaben und fehlender Kontext.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Perplexity wächst schnell - zu schnell?

Vor kurzem zeigte sich, dass Perplexity ein rasantes Wachstum hinlegt. Im Juni 2024 beantwortete die Suchmaschine rund 250 Millionen Fragen - fast so viele wie im gesamten Jahr 2023. An Google mit 8,5 Milliarden Suchanfragen pro Tag kommt Perplexity aber bei weitem nicht heran.

Perplexity führte kürzlich eine Deep-Research-Funktion ein, mit der die KI eigenständig umfangreiche Recherchen durchführt und in wenigen Minuten Berichte erstellt. Der Dienst kostet 20 Dollar im Monat für 500 Anfragen pro Tag. Zum Vergleich: Bei OpenAI zahlt man 200 Dollar für 100 Anfragen.

Eine große Herausforderung bleibt, dass bisher kein Anbieter das grundlegende Problem falscher Antworten gelöst hat. Perplexity stand zudem in der Kritik, weil es für sein "Perplexity Pages"-Feature Inhalte von Medien wie Forbes oder Bloomberg kopierte, ohne die Quellen korrekt anzugeben.

Mit dem im Juli 2024 vorgestellten "Perplexity Publishers Program" will das Unternehmen nun enger mit ausgewählten Verlagen zusammenarbeiten, ihre Inhalte in den Suchergebnissen prominenter platzieren und die Verlage an den Werbeeinnahmen beteiligen. Das scheint die bestehenden Probleme jedoch nicht zu lösen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie des Tow Center for Digital Journalism an der Columbia University hat acht führende KI-Suchmaschinen wie ChatGPT, Perplexity und Google Gemini auf ihre Fähigkeit getestet, Nachrichteninhalte korrekt zu zitieren.
  • Dabei zeigten sich erhebliche Mängel: Insgesamt beantworteten die Suchmaschinen über 60 Prozent der Anfragen falsch.
  • Überraschenderweise schnitten kostenpflichtige Premiummodelle nicht besser, sondern sogar schlechter ab als ihre kostenlosen Pendants. Zudem schienen mehrere Chatbots die Einstellungen im Robots Exclusion Protocol zu missachten und leiteten Nutzer oft auf Syndikations-Plattformen weiter anstatt auf die Originalquelle.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!