Inhalt
summary Zusammenfassung

Das chinesische KI-Unternehmen Zhipu AI hat mit GLM-4.5 und GLM-4.5V neue Open-Source-Sprachmodelle vorgestellt. Die Modelle sollen logisches Denken, Programmierung und agentische Aufgaben vereinen.

Anzeige

Zhipu AI zeigt konkrete Beispiele für die praktischen Fähigkeiten seiner neuen Modell-Familie: Das System kann interaktive Mini-Games und Physik-Simulationen erstellen, Präsentationsfolien mit autonomer Web-Suche generieren und vollständige Web-Anwendungen mit Frontend, Backend und Datenbank entwickeln.

Browser-Screenshot eines Flappy Bird-Klons bei chat.z.ai mit Punktestand 6 und Bestwert 2.
Diese tatsächlich spielbare Demo brauchte nur den Prompt: "Write a Flappy Bird game for me in a single HTML page. Keep the gravity weak so that the game is not too hard." | Bild: Screenshot by THE DECODER

Die multimodale Version GLM-4.5V erweitert diese Fähigkeiten um Bild- und Video-Analyse, kann Webseiten aus Screenshots nachbauen und Bildschirm-Operationen für autonome Agenten durchführen. Das lässt sich in der ChatGPT-ähnlichen Oberfläche chat.z.ai nach Log-in kostenfrei ausprobieren.

Chatfenster: Nutzer fragt nach Video-Optimierung; GLM-4.5V gibt Tipps zu 4K-Export, Rauschreduktion, Drittelregel, Dolly-Shot und Winkelwahl.
Über chat.z.ai lassen sich neben Text auch Bilder und sogar Videos analysieren. | Bild: Screenshot by THE DECODER

Das Unternehmen veröffentlicht insgesamt drei Varianten: GLM-4.5, die kompaktere Version GLM-4.5-Air und das multimodale GLM-4.5V. Alle Modelle bieten einen Hybrid-Ansatz mit zwei Modi: einen "Denk-Modus" für komplexe Aufgaben mit ausführlicher Begründung sowie einen "Schnellantwort-Modus" für sofortige Ergebnisse.

Anzeige
Anzeige

Starke Ergebnisse trotz weniger Parameter

GLM-4.5V soll laut Zhipu AI die beste Performance unter Open-Source-Modellen gleicher Größe erreichen. In Tests auf zwölf Benchmarks erreicht GLM-4.5 laut Zhipu AI den dritten Platz im Gesamtranking und den zweiten Platz bei autonomen Aufgaben. Das Modell erzielt 70,1 Prozent auf TAU-Bench für Agenten-Aufgaben, 91,0 Prozent bei mathematischen Problemen (AIME 24) und 64,2 Prozent bei Software-Engineering-Aufgaben (SWE-bench Verified).

Balkendiagramm: Performance von 13 LLMs auf 12 Benchmarks (agentic, reasoning, coding); GLM-4.5 Platz 3 (63,2), GLM-4.5-Air Platz 6 (59,8)
GLM-4.5 belegt im Gesamtranking der 13 LLMs über 12 agentische, Reasoning- und Coding-Benchmarks mit 63,2 Punkten Platz drei; die ressourceneffiziente GLM-4.5-Air landet mit 59,8 Punkten auf Platz sechs. | Bild: Zhipu AI

Besonders bemerkenswert ist die Parameter-Effizienz: GLM-4.5 hat nur halb so viele Parameter wie Deepseek-R1 und ein Drittel der Parameter von Kimi K2, erreicht aber vergleichbare oder bessere Leistungen. Bei Web-Navigation erreicht GLM-4.5 26,4 Prozent auf BrowseComp und übertrifft damit sogar das riesige Claude Opus 4 mit 18,8 Prozent deutlich.

Streudiagramm der Modellparameter (B) vs SWE-Bench-Scores mit GLM-4.5 und GLM-4.5-Air auf der Pareto-Grenze.
Selbst das leichtere Air-Modell ist auf Niveau von Deepseek R1, hat aber weit weniger Parameter – jedenfalls bei Coding-Aufgaben. | Bild: Zhipu AI

Tiefere Architektur für besseres Denken

GLM-4.5 basiert auf einer Mixture-of-Experts-Architektur mit 355 Milliarden Parametern insgesamt und 32 Milliarden aktiven Parametern. Die kompaktere Version GLM-4.5-Air hat 106 Milliarden Parameter insgesamt und 12 Milliarden aktive Parameter. GLM-4.5V baut auf GLM-4.5-Air auf.

Anders als Deepseek-V3 und Kimi K2 verwendet Zhipu AI mehr Schichten (Layers) statt breitere Schichten mit mehr Parametern pro Schicht. Die Forschenden fanden heraus, dass Modelle mit mehr Schichten bessere Denkfähigkeiten zeigen. Das Training erfolgte mit rund 23 Billionen Token in mehreren Phasen: zunächst allgemeine Daten, dann spezialisierte Code- und Denkaufgaben.

Zhipus Aufstieg zur Milliarden-Bewertung

Alle Modelle sind über die Z.ai-Platform verfügbar und bieten OpenAI-kompatible API-Schnittstellen. Der Code ist als Open Source auf Github und die Modell-Gewichte sind auf Hugging Face und Alibabas Modelscope verfügbar.

Empfehlung

Bereits 2022 sorgte ein Sprachmodell von Zhipu AI für Aufsehen, als ihr GLM-130B selbst Konkurrenten wie Google und OpenAI übertraf. Das Unternehmen wurde 2019 von Tsinghua-Universitätsprofessoren gegründet und hat seinen Hauptsitz in Peking. Heute zählt Zhipu AI zu den führenden chinesischen KI-Start-ups mit über 800 Mitarbeitenden, von denen ein Großteil in Forschung und Entwicklung tätig ist.

Zu den wichtigsten Investoren gehören chinesische Tech-Giganten wie Alibaba, Tencent und Xiaomi sowie verschiedene Staatsfonds. International haben sich auch die saudische Prosperity7 Ventures des Öl-Konzerns Aramco und andere an dem Unternehmen beteiligt, das mittlerweile mit mehr als fünf Milliarden US-Dollar bewertet wird. Ähnlich wie Deepseek zeichnet sich Zhipu AI durch ein stark akademisch geprägtes Team und unabhängige Forschung aus und arbeitet derzeit an einem geplanten Börsengang.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das chinesische Unternehmen Zhipu AI hat mit GLM-4.5, GLM-4.5-Air und GLM-4.5V drei neue Open-Source-Sprachmodelle vorgestellt, die logisches Denken, Programmierung und agentische Aufgaben kombinieren und dabei unter anderem Mini-Games, Webseiten und Präsentationsfolien erstellen können.
  • GLM-4.5V erweitert die Fähigkeiten auf Bild- und Videoanalyse sowie das Nachbauen von Webseiten aus Screenshots; alle Modelle bieten trotz vergleichsweise weniger Parameter starke Ergebnisse bei Benchmarks, insbesondere bei Coding- und Agenten-Aufgaben; der Zugang zu den Modellen ist über eine eigene API-Schnittstelle und als Open Source verfügbar.
  • Zhipu AI zählt zu den größten KI-Start-ups in China, wird von Unternehmen wie Alibaba, Tencent und Xiaomi unterstützt, ist mit mehr als fünf Milliarden US-Dollar bewertet und plant einen Börsengang.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!