Google bringt Live-Videoanalyse für seinen Gemini-Assistenten. Das gab das Unternehmen im Rahmen des Mobile World Congress bekannt.
Google stellt auf dem Mobile World Congress (MWC) in Barcelona KI-Funktionen für seinen Gemini-Assistenten vor. Wie das Unternehmen bekannt gab, werden Abonnenten des Google One AI Premium Plans für Gemini Advanced noch in diesem Monat Zugriff auf Live-Video- und Screen-Sharing-Funktionen erhalten.
Gemini Live erhält zwei wesentliche Neuerungen: Zum einen die Möglichkeit, Live-Videos zu analysieren, zum anderen eine Screen-Sharing-Funktion. Mit beiden Funktionen können Nutzerinnen und Nutzer visuelle Inhalte in Echtzeit mit dem KI-Assistenten teilen - bei Live-Video über Kamerabilder von außen, bei Screen-Sharing über den eigenen Smartphone-Bildschirm, um Inhalte darauf kommentieren zu lassen.
Die neuen Funktionen sind zunächst nur für Android-Geräte verfügbar und unterstützen mehrere Sprachen. Auf dem MWC zeigt Google die Integration dieser Funktionen auf Partnergeräten verschiedener Android-Hersteller.
KI-Assistenten kommen in der echten Welt an
Die Erweiterung um visuelle Funktionen ist ein wichtiger Schritt in der Entwicklung von KI-Assistenten, die zunehmend multimodal agieren und mit der realen Welt interagieren sollen.
Googles Ziel für 2025 ist "Project Astra", ein universeller multimodaler KI-Assistent, der Text-, Video- und Audiodaten in Echtzeit verarbeiten und in einem Gesprächskontext von bis zu zehn Minuten speichern kann. Astra soll auch Google Search, Lens und Maps nutzen können.
Es ist nicht bekannt, ob Google tatsächlich die Veröffentlichung von Astra plant oder, was wahrscheinlicher erscheint, ob die für Astra vorgestellten Funktionen in Gemini integriert werden.
Mit Gemini Live positioniert sich Google gegen den Konkurrenten OpenAI und dessen ChatGPT: Der Advanced Voice Mode von ChatGPT unterstützt seit Dezember Live- und Screen-Sharing.