Die Google I/O 2025 könnte einen weiteren Wendepunkt in der Entwicklung der Internetsuche darstellen. Mit dem neuen KI-Modus, Personalisierung, agentischen Funktionen und multimodalen Fähigkeiten will Google die klassische Suche grundlegend erneuern.
Im Zentrum steht der schon zuvor vorgestellte "AI Mode" in der Google-Suche, der nun allen US-Nutzern zur Verfügung steht. Dieser Modus soll laut Google komplexere und längere Anfragen bewältigen und zudem eine persönlichere, multimodale und agentenartige Interaktion ermöglichen – ein Schritt, der nach Angaben des Unternehmens einen der größten Umbrüche in der Geschichte der Suche darstellt.
Nach der initialen Suchanfrage sind auch Follow-up-Fragen und die Integration von Bildern, Grafiken und komplexen Datenvisualisierungen möglich. Angetrieben wird er von Gemini 2.5, dem aktuell leistungsfähigsten KI-Modell von Google.
Agentische Funktionen und personalisierte Ergebnisse
Mit der Integration der agentischen Fähigkeiten aus dem Forschungsprojekt Project Mariner kann der AI Mode Aufgaben wie Ticketbuchungen, Restaurantreservierungen oder Preisüberwachungen für den Nutzer übernehmen.
Dabei analysiert die KI in Echtzeit Angebote, füllt Formulare aus und schlägt gezielt passende Optionen vor. Der gesamte Vorgang bleibt dabei unter Kontrolle des Nutzers, der die finale Auswahl und den Kauf selbst bestätigt.
Nutzer können den AI Mode zudem mit weiteren Google-Diensten verknüpfen, etwa Gmail oder Google Drive. So kann die KI auf Basis vergangener Suchen, Reservierungen oder Dokumente individuellere Vorschläge machen, etwa für Freizeitaktivitäten am Reiseziel oder maßgeschneiderte Restaurantempfehlungen.
Offen lässt Google die Frage, wie sich der "AI Mode" mit dem Rest des Internets vertragen soll, auf dessen Basis Google die KI-Antworten generiert (Spoiler: Wahrscheinlich gar nicht). Zwar zitiert die KI-Suche externe Quellen, aber erste Studien zeigen, dass diese von Nutzern fast nicht angeklickt werden. Damit stehen zahlreiche WWW-Geschäftsmodelle auf dem Prüfstand, insbesondere von Verlagen.
Virtuelles Shopping und KI-gestützte Kaufabwicklung
Im Shopping-Bereich hat Google die KI-Funktionen deutlich ausgebaut. Nutzer können künftig eigene Fotos hochladen, um Kleidung virtuell an sich selbst zu testen – ein in dieser Größenordnung bislang einzigartiges Feature, das auf einem neuen, speziell für Mode trainierten Bildgenerierungsmodell basiert.
Video: Google
Ist die Kaufentscheidung gefallen, kann eine neue "agentische" Checkout-Funktion das gewünschte Produkt zu einem vom Nutzer festgelegten Preis automatisiert kaufen. Die KI verfolgt Preisentwicklungen, informiert bei Preisnachlässen und schließt den Kauf auf Wunsch selbstständig ab inklusive Zahlungsabwicklung. Die Shopping-KI nutzt Googles "Shopping Graph" mit mehr als 50 Milliarden Produktlistings, die laut Google stündlich aktualisiert werden.
Live-Funktionen und multimodale Suche
Die aktuellen Ankündigungen markieren laut Google erst den Anfang eines umfassenden Paradigmenwechsels: Das Ziel sei ein universeller, multimodaler KI-Assistent ("world model"), der nicht nur Informationen liefert, sondern aktiv Aufgaben für den Nutzer übernimmt, Situationen antizipiert und die persönliche Produktivität steigert. Künftig sollen diese Funktionen über alle Geräteklassen hinweg greifen – von Desktop über Smartphone bis zu XR-Brillen. Den Takt gibt hier weiter das Forschungsprojekt "Project Astra" an.
Mit "Search Live" erweitert Google bereits die Multimodalität der Suche. Nutzer können per Kamera in Echtzeit Fragen zu ihrer Umgebung stellen, etwa zu Gegenständen, Texten oder Problemen im Alltag. Die KI analysiert das Kamerabild, liefert Erklärungen und verweist auf weiterführende Ressourcen.
Diese Funktion, ursprünglich aus dem Forschungsprojekt Astra hervorgegangen, steht zunächst in der US-Suche über einen Live-Button zur Verfügung und soll die Sucherfahrung weiter in Richtung eines universellen Assistenzsystems verschieben.