Nach Google und OpenAI hat jetzt auch Perplexity eine Deep-Research-Funktion.
Perplexity führt mit "Deep Research" eine neue KI-Funktion ein, die eigenständig umfangreiche Recherchen durchführt und analysiert. Laut Unternehmensangaben führt das System dabei Dutzende Suchen durch, verarbeitet Hunderte Quellen und erstellt daraus in ein bis zwei Minuten einen umfassenden Bericht - eine Arbeit, für die ein Mensch mehrere Stunden bräuchte.
Das System arbeitet laut Perplexity iterativ: Es sucht, liest Dokumente und plant auf Basis der gewonnenen Erkenntnisse die nächsten Rechercheschritte. Anschließend fasst es die Ergebnisse in einem Bericht zusammen, der als PDF exportiert oder als "Perplexity Page" geteilt werden kann.
Video: Perplexity
Deep Research ist zunächst nur im Web verfügbar. Versionen für iOS, Android und Mac sollen folgen. Die neue Funktion ist grundsätzlich kostenlos nutzbar, wobei die Anzahl der täglichen Anfragen für Nicht-Abonnenten begrenzt ist. Sie eignet sich nach Unternehmensangaben besonders für Recherchen in den Bereichen Finanzen, Marketing und Technologie.
Deepseek-Technologie ermöglicht günstiges Deep Research
Deep Research dürfte auf einer angepassten Version des Reasoning-Modells DeepSeek-R1 basieren. Diese effiziente Architektur ermöglicht es Perplexity laut CEO Aravind Srinivas, den Dienst "10- bis 100-mal" günstiger anzubieten als die Konkurrenz: Während OpenAI 200 Dollar pro Monat für 100 Anfragen verlangt, bietet Perplexity 500 Anfragen pro Tag für 20 Dollar monatlich an.
Im "Humanity's Last Exam", einem umfangreichen KI-Benchmark mit über 3.000 Fragen, erreicht Deep Research eine Genauigkeit von 20,5 Prozent und liegt damit knapp hinter der Lösung von OpenAI.
Leider veröffentlicht Perplexity erneut irreführende Benchmark-Ergebnisse zu OpenAIs SimpleQA, das Sprachmodelle mit schwierigen Fragen konfrontiert, die sie mithilfe des Modellwissens beantworten sollen. Perplexity misst hier den eigenen Dienst mit Internetwissen gegen andere Modelle, die die Fragen nur mit trainiertem Wissen beantworten, und erzielt entsprechend deutlich bessere Ergebnisse.
Für ein Unternehmen, dessen Produkt in der Kritik steht, es mit der Wahrheit nicht so genau zu nehmen, ist es keine vertrauensbildende Maßnahme, Werbung zu machen, die es mit der Wahrheit nicht so genau nimmt.
KI-Fact-Checking, ein neuer Beruf für Menschen
Wie alle KI-Antwortmaschinen - ob mit oder ohne Deep Research - generiert auch Perplexity Unwahrheiten und Ungenauigkeiten in den Berichten. Hier liegt die Verantwortung beim Menschen, der diese Ergebnisse überprüfen und validieren muss.
Die Herausforderung dabei ist, dass diese Fehler sehr subtil sein und sich in großen Textmengen verstecken können, wie in diesem Beispiel: Hier wird dem LLM-Kritiker Gary Marcus ein Paper zugeschrieben, das LLMs als "stochastische Papageien" bezeichnet. Das entspricht sicherlich Marcus’ Überzeugung, und er mag den Begriff auch schon verwendet haben. Aber er hat das Paper nicht geschrieben.
Perplexity antwortet nicht auf regelmäßige Anfragen, ob Fehlerraten in KI-Antworten systematisch untersucht werden und wie hoch diese sind. Auch Google und OpenAI haben diese Frage nicht beantwortet.