Skip to content

Google Gemini Modelle können jetzt Videos nativ analysieren

Googles Gemini-Modelle unterstützen jetzt natives Videoverstehen. Nutzer können nun YouTube-Video-Links im Google AI Studio direkt in ihre Anfragen einbinden. Das Modell kann den Videoinhalt analysieren und Auskünfte dazu geben. Die KI transkribiert den Audiotrack und analysiert Videoframes im Sekundentakt. Entwickler können etwa spezifische Zeitstempel im Video referenzieren und das Modell um Zusammenfassungen, Übersetzungen oder visuelle Beschreibungen bitten. Die Funktion befindet sich derzeit in der Vorschau und ist kostenlos: Pro Tag sind maximal 8 Stunden Video erlaubt, nur ein Video pro Anfrage und ausschließlich öffentliche Videos. Gemini Pro kann Videos bis zu 2 Stunden Länge verarbeiten, Gemini Flash bis zu einer Stunde. Zuvor rollte Google native Bildgenerierung mit Gemini aus.

Video: via Logan Kilpatrick

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren