Mistral AI stellt mit "Mistral Compute" eine eigene Infrastruktur-Plattform für KI vor. Die Lösung richtet sich an Staaten, Unternehmen und Forschungseinrichtungen und bietet eine private, anpassbare Komplettlösung: von Server-Hardware mit Nvidia-GPUs bis zu Trainingswerkzeugen und APIs. Ziel sei es, unabhängig von US- oder China-basierten Cloud-Anbietern eigene KI-Modelle betreiben zu können. Die Plattform läuft auf 18.000 NVIDIA Grace Blackwell Chips in einem Rechenzentrum in Essonne, Frankreich, soll europäische Datenschutzstandards erfüllen und ist laut Mistral eines der größten KI-Infrastrukturprojekte Europas. Zu den Startpartnern gehören Black Forest Labs, BNP Paribas und Thales.

Anzeige
Infografik zeigt vier orange-rote Balken mit den Mistral Compute Service-Stufen: Bare Metal (reiner Kapazitätszugang), Managed Infra (Virtualisierung in privater Umgebung), Private AI Studio (Entwicklerumgebung mit APIs in privaten Clustern) und AI Studio (APIs und Services für schnellen Einstieg). Unten steht
Die vier Service-Ebenen von Mistral Compute: Von Bare Metal für vollständige Kontrolle bis AI Studio für schnellen Einstieg in KI-Entwicklung. | Bild: Mistral
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!