Inhalt
summary Zusammenfassung

NotebookLM erhält mit den neuen "Video Overviews" ein KI-Feature zur visuellen Aufbereitung komplexer Informationen. Auch das Studio-Panel wird neu organisiert.

Anzeige

Google erweitert sein KI-gestütztes Recherchetool NotebookLM um eine neue Formatkategorie: Video Overviews. Die erste Version dieses Formats basiert auf automatisch generierten, gesprochenen Präsentationsfolien, die visuelle Elemente wie Bilder, Diagramme, Zitate und Zahlen aus den eigenen Dokumenten einbinden. Ziel ist es, abstrakte Inhalte greifbarer zu machen und komplexe Prozesse anschaulich zu erklären, wie Google im offiziellen NotebookLM-Blog mitteilt.

Video Overviews ergänzen die bestehenden Audio Overviews als visuelle Alternative und lassen sich ähnlich personalisieren. Nutzer können Lernziele, Zielgruppen oder thematische Schwerpunkte angeben. Möglich sind sowohl allgemeine Anfragen wie "Ich kenne mich mit dem Thema nicht aus – helft mir, die Diagramme zu verstehen" als auch präzise Aufgabenstellungen für Fachpublikum.

Die neue Funktion wird ab sofort für alle Nutzer in englischer Sprache ausgerollt. Weitere Sprachversionen sollen folgen.

Anzeige
Anzeige

Studio-Panel mit mehr Flexibilität

Neben den Video Overviews hat Google auch das Studio-Panel in NotebookLM überarbeitet. Nutzer können künftig mehrere Studio-Ausgaben desselben Typs in einem einzigen Notizbuch speichern – bislang war dies auf jeweils eine pro Typ begrenzt. Dies ermöglicht etwa die Erstellung mehrerer Mind Maps oder Video Overviews zu unterschiedlichen Kapiteln eines Kurses oder die gezielte Aufbereitung von Inhalten für verschiedene Rollen in einem Team.

Das neue Studio bietet zudem vier separate Kacheln zur Erstellung von Audio Overviews, Video Overviews, Mindmaps und Reports. Alle erzeugten Inhalte erscheinen gesammelt in einer Liste darunter. Ein weiteres neues Produktivitätsmerkmal: Audio Overviews lassen sich nun im Hintergrund abspielen, während man gleichzeitig an anderen Formaten weiterarbeitet.

Vor kurzem hatte Google NotebookLM um eine Sammlung kuratierter Notizbücher erweitert, etwa mit Inhalten von The Atlantic, The Economist und gemeinnützigen Organisationen. Diese Sammlung bietet Nutzerinnen und Nutzern Zugang zu Originaltexten samt Fragenfunktion, Audio Overviews und Mind Maps. Laut Google wurden seit dem Start über 140.000 öffentliche Notizbücher veröffentlicht.

Wo genau Google mit NotebookLM hin will, ist nicht so ganz klar. Als ChatGPT-Konkurrenten hat Google den Gemini-Chatbot im Programm, in die Suche sind ebenfalls Gemini-Modelle mit Suche-spezifischen Interfaces wie dem AI Mode integriert. NotebookLM läuft moderat erfolgreich nebenher, hat aber einen recht engen Fokus auf die Arbeit mit eigenen Quellen, was sinnvoll, aber voraussetzungsreich ist und wahrscheinlich eher ein Lehr- und Lernpublikum anspricht.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google erweitert NotebookLM um "Video Overviews", die automatisch generierte, gesprochene Präsentationsfolien mit Bildern, Diagrammen und Zitaten aus eigenen Dokumenten erstellen und komplexe Inhalte anschaulich erklären sollen.
  • Das Studio-Panel wurde überarbeitet und erlaubt jetzt das Anlegen mehrerer Studio-Ausgaben eines Typs pro Notizbuch, etwa mehrere Mind Maps oder Video Overviews, sowie die parallele Nutzung verschiedener Formate wie Audio Overviews, die jetzt im Hintergrund abspielbar sind.
  • Unter anderem mit einer stetig wachsenden Sammlung kuratierter Notizbücher – darunter Inhalte von The Atlantic und The Economist – richtet sich NotebookLM vor allem an ein Lehr- und Lernpublikum.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!