Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
OpenAI bekommt offenbar die 100 Milliarden voll. Laut The Information verhandelt das KI-Unternehmen mit Nvidia, Microsoft und Amazon über Investitionen von bis zu 60 Milliarden Dollar. Nvidia könnte bis zu 30 Milliarden Dollar investieren, Amazon mehr als 10, möglicherweise sogar mehr als 20 Milliarden Dollar, und Microsoft weniger als 10 Milliarden Dollar. Dazu kommt der bestehende Investor SoftBank mit bis zu 30 Milliarden Dollar. Die Finanzierungsrunde könnte also in den zuvor gerüchteten rund 100 Milliarden US-Dollar bei einer Bewertung von rund 730 Milliarden Dollar enden.
Kritiker dürften hier auf die Zirkularität dieser Deals hinweisen: Einige der potenziellen Investoren wie Microsoft und Amazon sind gleichzeitig Geschäftspartner, die Server und Cloud-Dienste an OpenAI verkaufen. Das investierte Geld fließt also teilweise wieder an die Investoren zurück. Die Deals halten den KI-Hype am Laufen, ohne dass der tatsächliche finanzielle Nutzen von generativer KI beim Endnutzer eingepreist wird.
Das KI-Forschungsinstitut Allen AI hat SERA veröffentlicht, eine Familie von Open-Source-Coding-Agenten, die sich günstig an private Codebasen anpassen lassen sollen. Das beste Modell, SERA-32B, löst bis zu 54,2 Prozent der Probleme im Coding-Benchmark "SWE-Bench-Test Verified" (64K context) und übertrifft damit vergleichbare Open-Source-Modelle.
32K context, Allen AI
SERA nutzt ein vereinfachtes Trainingsverfahren namens "Soft-verified Generation", das keine vollständig korrekten Code-Beispiele benötigt. Das Training benötigt laut Ai2 nur 40 GPU-Tage und kostet zwischen 400 Dollar, um frühere Open-Source-Ergebnisse zu erreichen, und 12.000 Dollar für Leistung auf dem Niveau führender Industriemodelle. Damit sei ein Training auf eigenen Code-Daten auch für kleine Teams möglich. Technische Details stehen im Blog.
Die Modelle sind mit Claude Code kompatibel und können laut Allen AI mit zwei Zeilen Code gestartet werden. Alle Modelle, Code und Anleitungen sind auf Hugging Face unter der Apache 2.0-Lizenz verfügbar.
KI-Entwickler Andrej Karpathy revidiert Meinung zu KI-Agenten: Von "funktionieren nicht" zu 80 Prozent KI-Coding in nur drei Monaten
Noch im Oktober sagte Andrej Karpathy über KI-Agenten: „Sie funktionieren einfach nicht.“ Jetzt programmiert er nach eigenen Angaben zu 80 Prozent mit Agenten und spricht von einem Phasenwechsel in der Softwareentwicklung. Es ist eine eigentlich nüchterne Stimme, die in den Hype um agentisches Coding einsteigt, aber auch warnt.
Microsoft stellt seinen neuen KI-Inferenz-Chip Maia 200 vor. Der Chip ist speziell für die Inferenz entwickelt worden und soll 30 Prozent bessere Leistung pro Dollar bieten als die aktuelle Chip-Generation in Microsofts Rechenzentren. Er basiert auf TSMCs 3-Nanometer-Verfahren mit über 140 Milliarden Transistoren und verfügt über 216 GB Hochgeschwindigkeitsspeicher.
Laut Microsoft ist Maia 200 der leistungsstärkste hauseigene Chip aller großen Cloud-Anbieter. Er biete dreimal so viel FP4-Leistung wie Amazons Trainium 3 und übertreffe Googles TPU v7 bei FP8-Berechnungen. Eine unabhängige Bewertung steht noch aus.
Microsoft
Microsoft setzt den Chip laut eigenen Angaben für OpenAIs GPT-5.2-Modelle sowie für Microsoft 365 Copilot ein. Entwickler können sich für eine Vorschau des Maia SDK anmelden. Maia 200 ist zunächst im Rechenzentrum in Iowa verfügbar, Arizona folgt als Nächstes. Technische Details zum Chip stehen hier.
Jobkrise bei Codern, Textern und Co. begann vor ChatGPT: Studie widerspricht populärer KI-Erzählung
Die Erzählung klingt einleuchtend: ChatGPT kam, und die Jobs in KI-exponierten Berufen verschwanden. Eine neue Studie zeigt jedoch, dass die Probleme bereits Monate früher begannen. Laut dem Forschungsteam sollten wir vorsichtiger sein und nicht KI für alles verantwortlich machen, was am Arbeitsmarkt schiefgeht.