Anzeige
Skip to content
Read full article about: Nvidia-Chef Jensen Huang kritisiert Anthropic-CEO Dario Amodei scharf

Anthropic-CEO Dario Amodei hat nicht die beste Woche. Nachdem ihn schon Metas KI-Chefforscher LeCun scharf kritisiert hatte, stellt sich nun auch Nvidia-Chef Jensen Huang gegen ihn. Bei der VivaTech in Paris widersprach Huang Amodeis Prognose, dass KI in fünf Jahren die Hälfte aller Einstiegsbürojobs ersetzen könnte. Er warf Amodei zudem vor, KI für so gefährlich zu halten, dass nur Anthropic sie sicher entwickeln könne, und gleichzeitig für so teuer und mächtig, dass andere ausgeschlossen werden sollten. Huang plädierte dagegen für einen offenen Umgang mit KI.

Wenn Sie möchten, dass Dinge sicher und verantwortungsbewusst erledigt werden, tun Sie es offen … Tun Sie es nicht in einem dunklen Raum und sagen Sie mir dann, es sei sicher.

Jensen Huang

Natürlich triggerte das auch LeCun erneut, der seine Kritik an Amodei erneuerte.

Read full article about: EU-Alternative zu US-Clouds: Mistral AI startet KI-Plattform "Mistral Compute"

Mistral AI stellt mit "Mistral Compute" eine eigene Infrastruktur-Plattform für KI vor. Die Lösung richtet sich an Staaten, Unternehmen und Forschungseinrichtungen und bietet eine private, anpassbare Komplettlösung: von Server-Hardware mit Nvidia-GPUs bis zu Trainingswerkzeugen und APIs. Ziel sei es, unabhängig von US- oder China-basierten Cloud-Anbietern eigene KI-Modelle betreiben zu können. Die Plattform läuft auf 18.000 NVIDIA Grace Blackwell Chips in einem Rechenzentrum in Essonne, Frankreich, soll europäische Datenschutzstandards erfüllen und ist laut Mistral eines der größten KI-Infrastrukturprojekte Europas. Zu den Startpartnern gehören Black Forest Labs, BNP Paribas und Thales.

Infografik zeigt vier orange-rote Balken mit den Mistral Compute Service-Stufen: Bare Metal (reiner Kapazitätszugang), Managed Infra (Virtualisierung in privater Umgebung), Private AI Studio (Entwicklerumgebung mit APIs in privaten Clustern) und AI Studio (APIs und Services für schnellen Einstieg). Unten steht
Die vier Service-Ebenen von Mistral Compute: Von Bare Metal für vollständige Kontrolle bis AI Studio für schnellen Einstieg in KI-Entwicklung. | Bild: Mistral
Read full article about: OpenAI verbessert "Projects" in ChatGPT

OpenAI hat neue Funktionen für die "Projects"-Funktion in ChatGPT veröffentlicht. Nutzer mit Plus-, Pro- und Team-Abos können nun in einem Projekt Deep Research und Voice Mode nutzen und einzelne Chats per Link teilen. In der mobilen App lassen sich Dateien hochladen und Modelle wechseln – vorausgesetzt, die App ist auf dem neuesten Stand. Außerdem wurde die Projektspeicherfunktion verbessert: ChatGPT kann jetzt frühere Unterhaltungen im Projektkontext berücksichtigen. Chats lassen sich per Drag-and-drop in Projekte verschieben oder daraus entfernen. Die neuen Funktionen gelten nicht für Enterprise- und Edu-Pläne, die beim bisherigen Funktionsumfang bleiben.

Read full article about: OpenAI knackt 10-Milliarden-Dollar-Marke bei jährlichem Umsatz

OpenAI erzielt laut eines Firmensprechers 10 Milliarden US-Dollar an jährlich wiederkehrendem Umsatz (ARR), berechnet aus dem aktuellen Monatsumsatz. Die Summe stammt aus ChatGPT für Privat- und Geschäftskunden sowie der API, nicht jedoch aus Microsoft-Lizenzen oder Einzelverträgen. Interne Pläne sehen für 2025 rund 13 Milliarden US-Dollar Jahresumsatz vor, die demnach erreichbar scheinen. Laut The Information strebt OpenAI bis 2030 einen jährlichen Umsatz von 174 Milliarden US-Dollar an. 2024 lag der ARR noch bei 5,5 Milliarden US-Dollar. OpenAI muss angeblich 20 Prozent seines Umsatzes an den Investor Microsoft abgeben.

Read full article about: Eine einzelne ChatGPT-Anfrage verbraucht so viel Energie wie Google-Suche 2009

In einer romantischen Abhandlung über eine angeblich bevorstehende Singularität erwähnt OpenAI CEO Sam Altman einen interessanten Fakt: Eine einzelne ChatGPT-Anfrage verbraucht laut Altman im Durchschnitt 0,34 Wattstunden Strom und 0,000085 Gallonen Wasser. Das entspricht etwa dem Energiebedarf einer Google-Suche im Jahr 2009. Was Altman nicht anspricht: Die Zahl der Anfragen an ChatGPT dürfte deutlich höher liegen als Google-Suchen pro Kopf, und neue KI-Systeme wie multimodale Modelle, Reasoning Modelle oder Agenten benötigen zusätzlich mehr Rechenleistung. Der stark wachsende Ausbau von Rechenzentren deutet darauf hin, dass der Energiebedarf der Systeme insgesamt erheblich ist.