Anzeige
Short

Googles Gemini-Modelle unterstützen jetzt natives Videoverstehen. Nutzer können nun YouTube-Video-Links im Google AI Studio direkt in ihre Anfragen einbinden. Das Modell kann den Videoinhalt analysieren und Auskünfte dazu geben. Die KI transkribiert den Audiotrack und analysiert Videoframes im Sekundentakt. Entwickler können etwa spezifische Zeitstempel im Video referenzieren und das Modell um Zusammenfassungen, Übersetzungen oder visuelle Beschreibungen bitten. Die Funktion befindet sich derzeit in der Vorschau und ist kostenlos: Pro Tag sind maximal 8 Stunden Video erlaubt, nur ein Video pro Anfrage und ausschließlich öffentliche Videos. Gemini Pro kann Videos bis zu 2 Stunden Länge verarbeiten, Gemini Flash bis zu einer Stunde. Zuvor rollte Google native Bildgenerierung mit Gemini aus.

Video: via Logan Kilpatrick

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Short

Google verbessert sein Reasoning-Modell Flash Thinking 2.0 und macht Deep Research kostenlos verfügbar. Das Unternehmen rollt eine aktualisierte Version von Flash Thinking 2.0 aus, die Funktionen wie den Datei-Upload unterstützt und laut Google eine verbesserte Effizienz und Geschwindigkeit bietet. Gemini Advanced-Nutzer erhalten zudem Zugriff auf ein Kontextfenster mit 1 Million Token. Deep Research, das Informationen von vielen Webseiten und Dokumenten in Minuten zusammenfasst, wird ebenfalls mit Flash Thinking 2.0 aufgerüstet und zeigt nun in Gedankenketten, wie es gestellte Aufgaben versucht zu lösen. Zudem ist es ab sofort kostenlos verfügbar. Genauso wie die Deep-Research-Funktionen anderer Anbieter macht auch Googles Deep Research Fehler.

Google News