Inhalt
summary Zusammenfassung

Das Start-up Inception Labs kündigt mit den Mercury-Modellen eine neue Generation von Large Language Models an, die auf der Diffusionstechnologie basieren und eine Geschwindigkeitssteigerung um den Faktor 10 versprechen. Die ersten Modelle sind auf Coding spezialisiert.

Anzeige

Im Gegensatz zu aktuellen Large Language Models, die Text autoregressiv, das heißt, sequentiell von links nach rechts generieren, arbeiten Diffusionsmodelle mit einem "grob-zu-fein"-Ansatz. Dabei wird die Ausgabe ausgehend von reinem Rauschen über wenige Verfeinerungsschritte generiert.

Für die gleiche Aufgabe benötigt Mercury Coder im Vergleich zu einem autoregressiven Modell deutlich weniger Durchläufe. | Video: Inception Labs

Dieser nicht-sequentielle Ansatz ermögliche es laut Inception Labs Diffusionsmodellen, besser zu schlussfolgern, ihre Antworten zu strukturieren und Fehler zu korrigieren. In anderen Bereichen wie Bild- und Videogenerierung ist Diffusion bereits der Standard, nur bei Text und Audio konnte sich der Ansatz bisher nicht durchsetzen.

Anzeige
Anzeige

Über chat.inceptionlabs.ai lässt sich Mercury Coder kostenfrei ausprobieren. Prompts werden innerhalb weniger Augenblicke umgesetzt, in einer Seitenleiste erscheint parallel eine interaktive Vorschau der generierten Software.

Screenshot einer Code-Entwicklungsumgebung mit Vorschau einer HTML-Website und Minesweeper-Spielfeld auf der rechten Seite.
Mercury Coder baut einen Minesweeper-Klon in weniger Zeit als man benötigt, um das Spiel zu lösen. | Bild: Screenshot by THE DECODER

Beeindruckende Ergebnisse in Standardtests

In Standardtests zur Codegenerierung ist Mercury Coder auf einer Ebene mit der Leistung von autoregressiven Modellen wie Gemini 2.0 Flash-Lite oder GPT-4o-mini, aber selbst auf handelsüblichen Nvidia-H100-GPUs um ein Vielfaches schneller. Sie erreichen teilweise Ausgaben mit mehr als 1.000 Token pro Sekunde.

Diese Geschwindigkeiten waren zuvor mit autoregressiver Architektur nur mit für die KI-Inferenz optimierten Chips wie solchen von Groq erreichbar. Auch Entwickler:innen bevorzugen laut Inception Labs die Code-Vervollständigungen von Mercury im Vergleich zu existierenden Code-Modellen.

Streudiagramm mit Leistungsvergleich verschiedener KI-Coding-Umgebungen nach Ausgabegeschwindigkeit und Speicherbedarf, Mercury Coder erzielt Top-Ergebnisse.
Das Streudiagramm vergleicht die Leistung verschiedener Coding-KIs anhand ihrer Ausgabegeschwindigkeit. | Bild: Inception Labs

Das Unternehmen sieht großes Potenzial für dLLMs in Bereichen wie Kundensupport, Codegenerierung und Unternehmensautomatisierung. Erste Anwender:innen würden bereits erfolgreich ihre bisherigen autoregressiven Basismodelle erfolgreich durch Mercury ersetzen. Ein Chat-Modell befindet sich in der geschlossenen Betaphase.

KI-Experte Karpathy zeigt sich überrascht

Der renommierte KI-Experte und ehemals hochrangiger OpenAI-Forscher Andrej Karpathy zeigt sich auf X beeindruckt von Mercury. Warum Text und manchmal auch Audio-Token einen autoregressiven Ansatz bevorzugen, während Bilder und Videos auf Diffusion setzen, sei für ihn und viele andere bisher ein Rätsel gewesen.

Empfehlung

"Wenn man genau hinschaut, tauchen viele interessante Verbindungen zwischen den beiden auf", schreibt Karpathy. Das Mercury-Modell habe das Potenzial, anders zu sein und möglicherweise eine neue, "einzigartige Psychologie oder neue Stärken und Schwächen zu zeigen".

Das zur Codegenerierung optimiertes Modell namens Mercury Coder ist bereits in einem Playground verfügbar. Unternehmenskund:innen erhalten auf Anfrage Zugriff auf Mercury Coder Mini und Mercury Coder Small über eine API oder Deployment über ihre lokale Infrastruktur. Die Preisgestaltung ist noch nicht öffentlich bekannt.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das Start-up Inception Labs kündigt mit den Mercury-Modellen eine neue Generation von Large Language Models an, die auf der Diffusionstechnologie basieren und eine Geschwindigkeitssteigerung um den Faktor 10 versprechen.
  • Im Gegensatz zu aktuellen Large Language Models, die Text sequentiell generieren, arbeiten Diffusionsmodelle mit einem "Grob-zu-Fein"-Ansatz. Dieser nicht-sequentielle Ansatz ermöglicht laut Inception Labs bessere Schlussfolgerungen, strukturierte Antworten und Fehlerkorrekturen.
  • In Standardtests zur Codegenerierung ist Mercury Coder auf dem gleichen Leistungsniveau wie autoregressive Modelle, aber selbst auf handelsüblichen Nvidia-H100-GPUs um ein Vielfaches schneller. KI-Experte Andrej Karpathy ist beeindruckt und sieht Potenzial für eine neue, einzigartige "Modellpsychologie".
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!