KI-Chiphersteller Groq erhält 640 Millionen Dollar in Finanzierungsrunde
Das KI-Startup Groq hat in einer aktuellen Finanzierungsrunde 640 Millionen Dollar eingesammelt. Das Unternehmen entwickelt spezialisierte Chips für KI-Anwendungen wie Sprachmodelle.
Groq Inc., ein 2016 von Jonathan Ross gegründetes Startup für KI-Chips und -Software, hat in einer aktuellen Finanzierungsrunde 640 Millionen Dollar eingesammelt. Die Runde wurde von Fonds von BlackRock Inc. angeführt und von den Investmentbereichen von Cisco Systems Inc. und Samsung Electronics Co. unterstützt. Das Unternehmen wird nun mit 2,8 Milliarden Dollar bewertet.
Ross, der zuvor bei Google an den TPU-Chips mitarbeitete, entwickelt mit Groq spezielle Hardware für KI-Anwendungen, insbesondere solche, die aktuelle Foundation-Modelle wie Sprachmodelle beschleunigt. Das Unternehmen hat dafür sogenannte LPUs (Language Processing Units) entwickelt, die für die Ausführung von Sprachmodellen optimiert sind. Diese können eine Geschwindigkeit von hunderten Token pro Sekunde auch bei größeren Modellen wie Metas Llama 2 70B erreichen - das entspricht hunderten Wörtern pro Sekunde. Diese Geschwindigkeit macht die Hardware für Echtzeit-Anwendungen interessant, wird aber mittlerweile auch von Nvidias Hardware erreicht - wenn auch zu deutlich höheren Preisen.
Groq baut Chips für Inferenz, nicht für Training
Laut Groq sind LPUs energieeffizienter als herkömmliche Grafikchips (GPUs), da sie den Aufwand für die Verwaltung mehrerer Threads reduzieren und die Unterauslastung von Kernen vermeiden. Das Chip-Design von Groq ermöglicht zudem die Verbindung mehrerer spezialisierter Kerne ohne die traditionellen Engpässe, die bei GPU-Clustern auftreten.
Die Hardware könnte somit eine Alternative zu den derzeit stark nachgefragten Chips von Nvidia darstellen, allerdings nur für die Inferenz, also die Ausführung von KI-Modellen. Für das Training der Modelle benötigen Unternehmen weiterhin die gängige Hardware von Nvidia oder ähnliche Chips. Meta will beispielsweise Llama 4 mit der zehnfachen Rechenleistung trainieren, die das Unternehmen für Llama 3 aufgewendet hat.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.