Inhalt
summary Zusammenfassung

Google plant die Veröffentlichung seines nächsten großen Sprachmodells für Dezember. Intern sollen die Leistungsverbesserungen jedoch hinter den Erwartungen zurückbleiben.

Anzeige

Laut Insider-Quellen von The Verge will Google sein neues KI-Sprachmodell Gemini 2.0 im Dezember vorstellen. Der KI-Leak-Account "Jimmy Apples", der in der Vergangenheit häufig richtig lag, berichtet, dass erste Business-Kunden bereits Zugriff auf das neue Modell haben.

Allerdings soll Gemini 2.0 laut The Verge nicht die erhofften Leistungssprünge zeigen, die sich das Team um Deepmind-Gründer Demis Hassabis versprochen habe. Dennoch seien einige interessante neue Funktionen zu erwarten.

Auch andere Technologieunternehmen arbeiten mit Hochdruck an neuen Modellen: Elon Musks xAI trainiert derzeit Grok 3 auf einem Cluster von 100.000 Nvidia H100-Chips in seinem neuen Supercomputer in Memphis. Meta entwickelt laut The Verge parallel Llama 4 mit noch mehr Rechenleistung.

Anzeige
Anzeige

Tech-Giganten setzen auf neue Modelle und mehr Rechenpower

Die möglicherweise enttäuschende Entwicklung bei Googles Flaggschiff-LLM könnte auch erklären, warum Google massiv in neue Expertise investiert: Der Konzern übernahm indirekt das Start-up Character.ai für angeblich bis zu 2,5 Milliarden US-Dollar - vor allem, um den renommierten KI-Forscher Noam Shazeer und sein Team zurück zu Google zu holen.

Shazeer, der 2017 die Transformer-Architektur mitentwickelte, soll bei Google an einem separaten Reasoning-Modell arbeiten, das mit OpenAIs o1 konkurrieren kann. Auch Meta arbeitet an solchen Modellen. Einer der treibenden Forscher hinter der o1-Architektur, Noam Brown, wechselte von Meta zu OpenAI. Bei Meta erzielte er Logik-Durchbrüche wie CICERO.

Die KI-Unternehmen erhoffen sich von der neuen Reasoning-Architektur weitere Skalierungspotenziale, indem sie mehr Rechenleistung in die Inferenzzeit - also die "Denkzeit" der KI - investieren, statt wie bisher primär in das Vortraining mit vielen Daten.

Anzeichen für Stagnation bei großen Sprachmodellen

Die Entwicklungen der letzten zwei Jahre deuten darauf hin, dass große Sprachmodelle zwar effizienter werden, ihre Leistungsfähigkeit aber nicht signifikant zunimmt. LLM-Kritiker sehen darin ein Plateau der Technologie. Auch Bill Gates erwartet einen geringeren Sprung von GPT-4 zu GPT-5 als bei früheren Versionen.

Zudem scheinen sich die Fähigkeiten der Modelle anzugleichen. Sprachmodelle könnten so zu undifferenzierbaren Massenprodukten werden, die trotz enormer Entwicklungs- und Betriebskosten kaum Wettbewerbsvorteile bieten. Für hoch bewertete KI-Modellfirmen wie OpenAI und Anthropic ist das eine existenzielle Bedrohung.

Empfehlung
Streudiagramm: Konvergenz der MMLU-Scores verschiedener Sprachmodelle zwischen 2022-2024, zeigt Angleichung der Leistungsniveaus.
Die Leistungsfähigkeit verschiedener Sprachmodelle nähert sich einem gemeinsamen Niveau an. Während frühere Modelle noch deutliche Leistungsunterschiede aufwiesen, zeigt sich seit 2023 eine klare Konvergenz der MMLU-Scores - ein Hinweis darauf, dass die Modelle ein temporäres Leistungsplateau erreicht haben. | Bild: Maxime Labonne via X

Ein weiteres Indiz für die Plateau-These: OpenAI hat gerade bestätigt, dass der intern als GPT-4-Nachfolger gehandelte GPT-5 nicht mehr in diesem Jahr erscheinen wird - trotz der drohenden Konkurrenz durch Google Gemini 2.0.

Auch Anthropic soll sich mangels großer Fortschritte entschieden haben, eine bereits angekündigte Version 3.5 von Opus vorerst auf Eis zu legen. Stattdessen soll das Unternehmen die verbesserte Version von Sonnet 3.5 veröffentlicht haben, die sich auf agentische KI konzentriert.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google plant die Veröffentlichung seines neuen KI-Sprachmodells Gemini 2.0 für Dezember, jedoch soll es laut Insider-Quellen nicht die erhofften Leistungssprünge zeigen. Dennoch seien einige interessante neue Funktionen zu erwarten.
  • Tech-Giganten wie Google, Meta und xAI investieren massiv in neue Expertise und Rechenleistung, um an separaten Reasoning-Modellen zu arbeiten, die mehr Rechenleistung in die Inferenzzeit investieren. Ziel ist es, weitere Skalierungspotenziale zu erschließen.
  • Die Entwicklungen der letzten zwei Jahre deuten darauf hin, dass die Leistungsfähigkeit großer Sprachmodelle trotz Effizienzsteigerungen nicht signifikant zunimmt. Kritiker sehen darin ein Plateau der Technologie. Auch die Verschiebung von GPT-5 und Opus 3.5 könnte ein Indiz dafür sein.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!