Anzeige
Skip to content

Nvidia veröffentlicht Nemotron 3: Hybride Mamba-Modelle für autonome KI-Agenten

Nvidia bricht mit reinen Transformer-Modellen: Die neue Nemotron-3-Familie kombiniert Mamba-2- und Transformer-Architekturen, um KI-Agenten mit Millionen-Token-Kontextfenstern ressourcenschonend zu betreiben, und veröffentlicht ungewöhnlich offen Trainingsdaten und Rezepte.

Read full article about: SchedMD-Übernahme: Nvidia sichert sich wichtiges Rechenzentrums-Tool

Nvidia übernimmt den Softwareanbieter SchedMD, um seine Präsenz im Bereich Open-Source-Technologie auszubauen. Das Unternehmen teilte am Montag mit, dass es die Software "Slurm" von SchedMD weiterhin als Open Source vertreiben werde. Slurm hilft dabei, große Rechenaufgaben in Rechenzentren zu planen und die Serverkapazitäten effizient zu nutzen.

Laut Nvidia ist diese Technologie eine kritische Infrastruktur für generative KI, die von Entwicklern zum Trainieren von Modellen verwendet wird. Finanzielle Details der Übernahme wurden nicht veröffentlicht. SchedMD wurde 2010 in Kalifornien gegründet und beschäftigt rund 40 Mitarbeiter. Zu den Kunden zählen unter anderem der Cloud-Anbieter CoreWeave und das Barcelona Supercomputing Center.

Neue Nvidia-Technologie soll Standort von KI-Chips verifizieren

Nvidia arbeitet an einer Technologie, die den physischen Standort seiner KI-Chips verifizieren kann. Die Funktion könnte helfen, Exportbeschränkungen durchzusetzen, wird offiziell aber als Tool für das Flottenmanagement vermarktet.

Nvidia darf H200-Chips unter strengen Auflagen an China verkaufen

Die US-Regierung unter Donald Trump plant, den Export von Nvidias H200-KI-Beschleunigern nach China unter Auflagen freizugeben. Im Gegenzug verlangen die USA eine Abgabe von 25 Prozent, während die leistungsfähigsten Modelle weiterhin gesperrt bleiben.

Read full article about: Nvidia-CFO bestätigt: 100-Milliarden-Deal mit OpenAI noch nicht fix

Der geplante 100-Milliarden-Dollar-Deal zwischen Nvidia und OpenAI ist noch nicht unterzeichnet. Das bestätigte Nvidia-Finanzchefin Colette Kress am Dienstag auf einer Konferenz in Arizona. Obwohl die Unternehmen im September Pläne verkündeten, Nvidia-Systeme mit einer Leistung von 10 Gigawatt für OpenAI bereitzustellen, existiert bisher nur eine Absichtserklärung. Kress betonte, man arbeite noch an einer endgültigen Vereinbarung.

Die Verzögerung wirft Fragen zu den zirkulären Geschäften auf, bei denen Tech-Riesen in Start-ups investieren, die das Geld dann für Produkte der Investoren ausgeben. Die möglichen Einnahmen aus dem OpenAI-Deal sind in Nvidias aktueller Umsatzprognose von 500 Milliarden Dollar noch nicht enthalten. Auch ein geplantes 10-Milliarden-Dollar-Investment in den Konkurrenten Anthropic steht noch aus.

Read full article about: Nvidia zeigt neue KI-Modelle für autonomes Fahren und Spracherkennung

Nvidia hat auf der NeurIPS-Konferenz neue KI-Modelle für autonome Fahrzeuge und Sprachverarbeitung veröffentlicht. Das Unternehmen stellte „Alpamayo-R1“ vor, ein Modell, das Verkehrssituationen durch logische Schritt-für-Schritt-Analysen bewältigen soll. Nvidia gibt an, dass das System dadurch besser auf komplexe Szenarien reagieren kann als bisherige Modelle. Der Code ist zwar öffentlich, die Lizenz beschränkt die Nutzung jedoch auf nicht-kommerzielle Zwecke.

Ergänzend zeigte der Konzern neue Werkzeuge für die Robotik-Simulation. Für den Bereich Sprach-KI präsentierte Nvidia MultiTalker, ein Modell, das überlappende Gespräche mehrerer Personen getrennt transkribieren kann.

Neue Chip-Analyse skizziert, wie Googles KI-Chips Nvidia Konkurrenz machen

Google wandelt sich vom internen Chip-Nutzer zum Händler und fordert Nvidia heraus. Eine Analyse zeigt, dass allein die Existenz der neuen TPUs die Preise für KI-Rechenleistung massiv drückt. Doch Nvidia bereitet sich schon auf den Konter vor und könnte bald wieder deutlich vorn liegen.

Read full article about: Google Cloud will zehn Prozent von Nvidias Jahresumsatz mit TPUs erreichen

Google verhandelt mit Meta und anderen Unternehmen über die Nutzung seiner TPU-Chips in deren eigenen Rechenzentren, berichtet The Information. Meta erwägt laut einer mit den Gesprächen vertrauten Person, Milliarden Dollar für Google-TPUs auszugeben, die ab 2027 in Meta-Rechenzentren eingesetzt werden sollen. Bisher vermietet Google seine TPUs nur über die Google Cloud.

Mit dem neuen Programm TPU@Premises will Google die Alternative zu Nvidias KI-Chips attraktiver machen. Führungskräfte von Google Cloud haben intern geäußert, dass das Unternehmen damit zehn Prozent von Nvidias Jahresumsatz erreichen könnte, sagt eine Person mit Kenntnis der Aussagen. Google hat zudem Software entwickelt, die die Nutzung von TPUs vereinfachen soll.

Nvidia-Chef: "Im Grunde halten wir den Planeten zusammen"

Nvidia sitzt in der Falle: Liefert der Konzern starke Zahlen, gilt das als Beweis einer wachsenden KI-Blase. Fällt der Börsenbericht schwächer aus, droht der Kollaps der Weltwirtschaft. Das jedenfalls glaubt CEO Jensen Huang.

Read full article about: Arm und Nvidia schließen Partnerschaft für KI-Chips mit NVLink Fusion

Arm und Nvidia arbeiten künftig enger zusammen. Arm-CPUs sollen mit Nvidias NVLink Fusion-Technologie direkt mit KI-Chips kommunizieren können, teilte Arm am Montag mit. So können Kunden Neoverse-CPUs einfacher mit Nvidias GPUs kombinieren. Nvidia öffnet damit seine NVLink-Plattform auch für andere Prozessoren, statt nur eigene Modelle einzusetzen.

Die Kooperation richtet sich an Cloud-Anbieter wie Amazon, Google und Microsoft, die zunehmend eigene Arm-Chips verwenden, um Kosten zu senken und Systeme individuell zu gestalten. Arm lizenziert nur Chipdesigns und verkauft keine eigenen Prozessoren. Mit dem neuen Protokoll können Daten zwischen CPU und GPU schneller übertragen werden. Nvidia hatte 2020 versucht, Arm für 40 Milliarden Dollar zu kaufen, scheiterte aber an Auflagen in den USA und Großbritannien.