Inhalt
summary Zusammenfassung

Google hat Gemini Advanced um eine neue Recherchefunktion erweitert. Ein erster Test zeigt Potenzial, aber auch deutliche Schwächen des KI-gestützten Forschungsassistenten.

Anzeige

Google hat mit "Deep Research" eine neue Funktion für Gemini Advanced vorgestellt, die tiefergehende Internet-Recherchen über den KI-Assistenten ermöglichen soll. Die aktuell für Gemini 1.5 Pro verfügbare Beta-Funktion plant zunächst eine Recherchestrategie, die Nutzer noch manuell anpassen können.

Das System durchsucht anschließend das Internet nach relevanten Quellen, analysiert diese und erstellt einen Bericht mit Zusammenfassungen aller wichtigen Themen inklusive Quellenangaben. Damit positioniert Google seinen Assistenten ähnlich wie Perplexity als KI-gestütztes Recherchewerkzeug.

Praxistest zeigt Schwächen bei der Faktengenauigkeit

In meinem Test sollte das System Informationen über die Architektur von OpenAIs o1-Modell zusammentragen. Gemini entwickelte dafür einen sechsstufigen Rechercheplan, der unter anderem die Suche nach Research Papers, Artikeln, Patenten und Präsentationen von OpenAI umfasste.

Anzeige
Anzeige
Gemini entwirft einen Rechercheplan, den ich manuell anpassen kann. Bild: Google / Gemini

Das System durchsuchte je nach Anfrage zwischen 22 und 70 Webseiten und erstellte einen umfassenden Bericht. Während die Quellenauswahl und die grobe Einordnung bekannter Fakten über das o1-Modell gelangen, zeigten sich in den Details erhebliche Schwächen.

Gemini durchsucht je nach Aufgabe unterschiedlich viele Quellen. Bild: Google / Gemini
Nach wenigen Minuten ist der umfassende Recherche-Bericht fertig. Bild: Google / Gemini

So behauptete das System fälschlicherweise, OpenAI o1 nutze die Quiet-STaR-Methode.

Gemini behauptet, OpenAI habe Quiet-StaR genutzt. Das geht jedoch so nicht aus der Quelle hervor. Bild: Google / Gemini

Ein Blick in die zitierte Quelle zeigte jedoch, dass dort lediglich Quiet-STaR als möglicher Ansatz für ein besseres Chain-of-Thought-Training diskutiert wurde. Der Autor betont sogar explizit, dass es sich lediglich um Vermutungen handelt, wie OpenAI o1 trainiert habe.

Die Quelle erklärt an mehreren Stellen deutlich, dass es sich nur um Vermutungen handelt. Bild: Metadocs.co

Nützlich als Quellensammler, problematisch bei Details

Während also Sprachmodelle in bestimmten Bereichen trotz gelegentlicher Halluzinationen eine gute Unterstützung bieten können, zeigt der Test, dass KI-Rechercheassistenten zwar bei der Sammlung relevanter Quellen helfen können, der Aufwand für die notwendige Faktenprüfung aber den Nutzen übersteigen kann.

Best Practices für den effektiven Einsatz dieser Systeme fehlen noch. Nutzer müssen immer damit rechnen, dass die generierten Berichte mit hoher Wahrscheinlichkeit auch Fehlinformationen enthalten. Das weiß auch Google und vermerkt unter dem Chatfenster: "Gemini can make mistakes, including about people, so double-check it."

Empfehlung

Gemini 1.5 Pro mit Deep Research ist für Gemini Advanced Abonnenten verfügbar.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google hat die Funktion "Deep Research" für seinen KI-Assistenten Gemini Advanced vorgestellt, die tiefergehende Internet-Recherchen ermöglichen soll. Das System plant eine Recherchestrategie, durchsucht relevante Quellen, analysiert diese und erstellt einen Bericht mit Zusammenfassungen und Quellenangaben.
  • In meinem Praxistest sollte Gemini Informationen über die Architektur von OpenAIs o1-Modell zusammentragen. Während die Quellenauswahl und grobe Einordnung bekannter Fakten gelangen, zeigten sich in den Details erhebliche Schwächen. So behauptete das System fälschlicherweise, OpenAI habe die Quiet-STaR-Methode genutzt, obwohl die zitierte Quelle dies nur als Vermutung diskutierte.
  • Der Test zeigt, dass KI-Rechercheassistenten zwar bei der Sammlung relevanter Quellen helfen können, der Aufwand für die notwendige Faktenprüfung aber den Nutzen übersteigen kann. Nutzer müssen damit rechnen, dass die generierten Berichte mit hoher Wahrscheinlichkeit auch Fehlinformationen enthalten. Best Practices für den effektiven Einsatz dieser Systeme fehlen noch.
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!