Google Deepmind hat ein KI-Modell vorgestellt, das Web- und Mobile-Interfaces bedienen kann. Das Gemini 2.5 Computer Use Modell ist ab sofort als Preview verfügbar.
Entwickler können über die Gemini API auf das Modell zugreifen. Es basiert auf Gemini 2.5 Pro und soll Agenten ermöglichen, mit grafischen Benutzeroberflächen zu interagieren.
Das Modell arbeitet in einem Loop: Es erhält einen Screenshot der Umgebung, die User-Anfrage und eine Historie bisheriger Aktionen. Daraus generiert es UI-Aktionen wie Klicken, Tippen oder Scrollen. Nach der Ausführung wird ein neuer Screenshot an das Modell zurückgesendet, der Prozess wiederholt sich.
Google hat das Modell primär für Web-Browser optimiert, es funktioniert laut dem Unternehmen aber auch bei Mobile-UI-Kontrolle. Für Desktop-OS-Level-Kontrolle sei es noch nicht geeignet.
Laut Google übertrifft das Modell Alternativen bei den Benchmarks Online-Mind2Web, WebVoyager und AndroidWorld. Die Zahlen stammen aus eigenen Tests und Evaluierungen von Browserbase. Das Modell erreicht demnach über 70 Prozent Accuracy bei etwa 225 Sekunden Latenz.
Safety-Mechanismen gegen Missbrauch
Google nennt drei Hauptrisiken: intentionaler Missbrauch durch User, unerwartetes Modellverhalten und Prompt Injections im Web. Das Unternehmen hat nach eigenen Angaben Safety-Features ins Modell integriert.
Zusätzlich prüft ein Per-Step Safety Service jede vom Modell vorgeschlagene Aktion vor der Ausführung. Entwickler können über System Instructions festlegen, dass der Agent bestimmte High-Stakes-Aktionen ablehnt oder eine User-Bestätigung anfordert. Beispiele sind das Umgehen von CAPTCHAs oder die Kontrolle medizinischer Geräte.
Laut eigenen Angaben nutzt Google das Modell bereits für UI-Testing, Project Mariner, den Firebase Testing Agent und Funktionen im AI Mode in Search. Das Modell ist über Google AI Studio und Vertex AI verfügbar. Eine Demo-Umgebung hostet Browserbase.