Anzeige
Skip to content
Read full article about: Deepmind-Chef sieht drei KI-Themen für 2026: Multimodal, interaktiv und autonom

Demis Hassabis, CEO von Google Deepmind, erwartet in den nächsten zwölf Monaten Fortschritte bei der Konvergenz multimodaler Modelle, interaktiven Videowelten und verlässlichen KI-Agenten. Besonders die Multimodalität von Gemini ermögliche neue Anwendungen, erklärte Hassabis auf dem Axios AI+ Summit. Als Beispiel nannte er eine Szene aus dem Film "Fight Club", in der die KI das Ablegen eines Rings philosophisch als Symbol für den Verzicht auf den Alltag deutete. Auch das neueste Bildmodell von Google nutzt diese multimodalen Fähigkeiten, um visuelle Inhalte präzise zu verstehen und etwa Infografiken zu erstellen.

Zudem arbeitet Google Deepmind weiter an "Weltmodellen" wie Genie 3, die interaktive, begehbare Videoräume erzeugen. Hassabis prognostiziert auch, dass KI-Agenten in einem Jahr "nahe dran" sein werden, komplexere Aufgaben verlässlich und eigenständig zu erledigen. Ziel sei ein universeller Assistent, der Nutzer über verschiedene Geräte hinweg im Alltag begleitet.

Read full article about: Meta-KI-Forscher LeCun gründet Startup für KI mit echtem Weltverständnis und Fokus auf Europa

Yann LeCun, der scheidende KI-Wissenschaftler von Meta, plant ein neues Startup mit Fokus auf sogenannte "World Models", die die physische Welt verstehen, anstatt lediglich Text zu generieren.  Da das Silicon Valley laut LeCun von generativer KI "hypnotisiert" sei, setzt er für das Projekt stark auf europäische Talente. Das Unternehmen soll global agieren und unter anderem einen Standort in Paris haben, bestätigten Quellen gegenüber Sifted.

LeCun argumentiert, dass aktuellen Sprachmodellen das Verständnis für die physische Welt fehle und bloßes Skalieren dieser Technologie nicht zu menschlicher Intelligenz führe. Sein Projekt "AMI" setzt daher auf eine neue, nicht-generative Architektur.

Some people claim we can scale up current technology and get to general intelligence [...] I think that’s bullshit, if you’ll pardon my French.

Meta wird Partner des Startups, da Mark Zuckerberg das Vorhaben unterstützt, die Anwendungsmöglichkeiten jedoch laut LeCun über Metas Interessen hinausgehen. LeCun wird Meta Ende des Jahres verlassen, um die unabhängige Organisation zu leiten.

MIRAS und Titans: Google zeigt, wie KI-Modelle dauerhaft dazulernen können

Ein Jahr nach der Veröffentlichung des Titans-Papers stellt Google die Architektur offiziell im eigenen Forschungsblog vor – gemeinsam mit dem neuen Framework MIRAS. Beide Projekte zielen auf ein zentrales Zukunftsthema der KI: kontinuierlich lernende Modelle mit echtem Langzeitgedächtnis, die sich während der Nutzung weiterentwickeln können.

Read full article about: Nvidia zeigt neue KI-Modelle für autonomes Fahren und Spracherkennung

Nvidia hat auf der NeurIPS-Konferenz neue KI-Modelle für autonome Fahrzeuge und Sprachverarbeitung veröffentlicht. Das Unternehmen stellte „Alpamayo-R1“ vor, ein Modell, das Verkehrssituationen durch logische Schritt-für-Schritt-Analysen bewältigen soll. Nvidia gibt an, dass das System dadurch besser auf komplexe Szenarien reagieren kann als bisherige Modelle. Der Code ist zwar öffentlich, die Lizenz beschränkt die Nutzung jedoch auf nicht-kommerzielle Zwecke.

Ergänzend zeigte der Konzern neue Werkzeuge für die Robotik-Simulation. Für den Bereich Sprach-KI präsentierte Nvidia MultiTalker, ein Modell, das überlappende Gespräche mehrerer Personen getrennt transkribieren kann.

Deepseek V3.2 soll GPT-5 und Gemini 3 Pro Konkurrenz machen

Deepseek‑V3.2 tritt nicht nur als Open‑Weight‑Modell an, sondern punktet besonders in agentischen Szenarien und beim Umgang mit MCP‑Servern – und setzt damit Branchenriesen wie OpenAI weiter unter Druck.

Read full article about: Programmierer mit KI-Hilfe stellen laut Studie weniger Fragen und lernen oberflächlicher

Eine Studie der Universität des Saarlandes zeigt, dass Entwickler Vorschläge von KI‑Assistenten weniger kritisch prüfen. Das Team um Sven Apel stellte fest, dass Lernprozesse schwächer ausfallen, wenn Studierende beim Programmieren mit GitHub Copilot arbeiten. Apel sagte, dass menschliche Paare mehr Fragen stellen, breiter diskutieren und stärker voneinander lernen. In den KI‑Teams drehte sich vieles nur um den Code.

Apel et al.

Die Forscher ließen 19 Studierende in Paaren arbeiten: sechs mit Menschen, sieben mit KI. Laut Apel übernahmen die KI‑Nutzer Vorschläge oft einfach, weil sie annahmen, dass der Code schon passt. Er warnte, dass so spätere Fehler entstehen können, die viel Arbeit verursachen. Apel betonte, dass KI bei einfachen Aufgaben hilft, komplexe Probleme aber weiter menschlichen Austausch benötigen.