Inhalt
summary Zusammenfassung

Google erweitert seinen AI Mode um visuelle Suchfunktionen. Nutzer:innen sollen künftig in natürlicher Sprache nach Bildern suchen und direkt einkaufen können.

Anzeige

Google hat eine Erweiterung seines AI Mode angekündigt, die visuelle Suche mit konversationellen Anfragen verbinden soll. Die Funktion soll es Nutzer:innen ermöglichen, Suchanfragen in natürlicher Sprache zu stellen und Bildergebnisse zu erhalten.

Laut Google können Nutzer:innen ihre Suche durch Folgefragen verfeinern. Die Funktion akzeptiert sowohl Texteingaben als auch Bild-Uploads oder Fotos als Ausgangspunkt. Jedes Bildergebnis soll einen Link zur Originalquelle enthalten.

Video: Google

Anzeige
Anzeige

"Visual search fan-out" als technische Basis

Die Funktion baut auf Googles bestehender visueller Suche auf und nutzt die multimodalen Fähigkeiten von Gemini 2.5. Google führt eine neue "visual search fan-out" Technik ein, die Bilder detaillierter analysieren soll. Diese Fan-out-Mechanik testet Google auch an anderen Stellen der neuen KI-Suchmaschine, weitere technische Details fehlen jedoch bislang.

Diagramm: „Visual Fan-out“-Technik im AI Mode, die von der Analyse zur visuellen Antwort führt.
Die „Visual Fan-out“-Technik analysiert Bild- und Textanfragen, startet mehrere Hintergrundsuchen und soll eine umfassende Antwort liefern. | Bild: Google

Dieses System soll sowohl Hauptobjekte als auch Details und Nebenelemente in Bildern erkennen und mehrere Suchanfragen im Hintergrund ausführen. Google verspricht dadurch ein besseres Verständnis des visuellen Kontexts.

Shopping-Integration ohne Filter

Ein Schwerpunkt liegt auf Shopping-Anwendungen. Nutzer:innen sollen ihre Wünsche direkt beschreiben können, anstatt Filter zu verwenden. Google nennt als Beispiel die Anfrage "Barrel Jeans, die nicht zu weit sind". Der AI Mode soll dann kaufbare Optionen anzeigen und weitere Spezifizierungen wie "Ich möchte mehr knöchellange Modelle" zulassen. Auf mobilen Geräten sollen Nutzer:innen zusätzlich innerhalb spezifischer Bilder suchen können.

Smartphone zeigt Google AI Mode mit visueller Suche nach maximalistischem Schlafzimmer-Design.
Die visuelle Suche im AI Mode liefert Inspiration für vage Ideen, wie hier für ein Schlafzimmer im maximalistischen Stil. | Bild: Google

Die Shopping-Funktion basiert auf Googles Shopping Graph mit nach eigenen Angaben mehr als 50 Milliarden Produktlistings. Google gibt an, stündlich über 2 Milliarden dieser Einträge zu aktualisieren.

Google startet den visuellen AI Mode diese Woche in englischer Sprache in den USA.

Empfehlung

Vor kurzem hatte Google bereits weitere KI-Funktionen für seinen AI Mode angekündigt. Das Unternehmen führte Gemini 2.5 Pro und Deep Search für zahlende Nutzer:innen ein sowie eine automatische Anruffunktion für lokale Geschäfte.

Davor hatte Google auf der I/O 2025 agentische Funktionen und personalisierte Ergebnisse vorgestellt. Mit Project Mariner soll die KI-Suche Aufgaben wie Ticketbuchungen übernehmen und virtuelle Anprobe-Funktionen für Kleidung bieten.

Die Konkurrenz arbeitet ebenfalls an Shopping-Integrationen: OpenAI startete kürzlich eine Online-Shopping-Bezahlfunktion für ChatGPT. Die Funktion ermöglicht Sofortkäufe direkt in der Chat-Oberfläche, zunächst für Etsy-Produkte und später für über eine Million Shopify-Händler. OpenAI entwickelte dafür gemeinsam mit Stripe das "Agentic Commerce Protocol" als Open-Source-Lösung.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google erweitert seinen AI Mode um eine visuelle Suchfunktion, mit der Nutzer:innen in natürlicher Sprache nach Bildern suchen, diese verfeinern und direkt einkaufen können. Die Suche akzeptiert sowohl Text- als auch Bildeingaben und liefert jeweils einen Link zur Originalquelle.
  • Die neue Funktion nutzt die multimodalen Fähigkeiten von Gemini 2.5 und setzt auf die "visual search fan-out" Technik, die Haupt- und Nebenelemente in Bildern erkennt und parallel mehrere Hintergrundsuchen ausführt, um umfassende Antworten zu liefern.
  • Im Fokus steht die Shopping-Integration: Nutzer:innen können ihre Wünsche ohne klassische Filter beschreiben, erhalten passende Produktvorschläge und können gezielt weiter eingrenzen. Die Funktion basiert auf Googles Shopping Graph und startet zunächst in den USA auf Englisch.
Quellen
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!