Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Alphabet, Amazon, Meta und Microsoft wollen 2026 zusammen rund 610 Milliarden Dollar für Rechenzentren und KI-Infrastruktur ausgeben – etwa 70 Prozent mehr als 2025, berichtet Bloomberg. Amazon plant 200 Milliarden, Microsoft 180, Meta 125 und Alphabet 105 Milliarden Dollar. Pro Unternehmen übersteigt das fast die Budgets der letzten drei Jahre zusammen.
Trotz guter Geschäftszahlen verloren die vier Unternehmen nach Bekanntgabe der Quartalsergebnisse zusammen über 950 Milliarden Dollar an Börsenwert. Invstoren sind unsicher, ob und wann sich die hohen Investitionen auszahlen.
Unternehmen
2025 (Mrd. $)
2026 (Mrd. $)
Veränderung
Amazon
132
200
+51,5%
Alphabet
92
180
+97,8%
Meta
71
125
+76,1%
Microsoft
65
105
+61,5%
Gesamt
360
610
+69,9%
Gleichzeitig entsteht ein Kreislauf: Ein großer Teil des Börsenwerts basiert auf dem Versprechen künftiger KI-Gewinne. Weniger Ausgaben könnten als fehlendes Vertrauen in KI gedeutet werden – und die Kurse einbrechen lassen. Start-ups wie OpenAI profitieren von dieser Zirkularität: Die Investitionen von Big Tech werden zu Ausgaben bei eben diesen Unternehmen und treiben so deren Wachstum und damit Börsenwert.
"Jedes Unternehmen ist jetzt ein API-Unternehmen, ob es will oder nicht," zitiert OpenAI-CEO Sam Altman einen Satz, der sich ihm in den vergangenen Wochen besonders eingeprägt habe. Altman sagt das im Kontext des Einflusses generativer KI auf bestehende Software-Geschäftsmodelle.
Die Aussage meint: KI-Agenten können künftig selbst Code schreiben, um auf Dienste zuzugreifen – auch ohne offizielle API (Schnittstellen, über die Programme miteinander kommunizieren). Unternehmen werden also nicht gefragt, ob sie Teil dieses Systems sein wollen. Sie werden schlicht vereinnahmt, und die klassische Benutzeroberfläche verliert an Wert.
Laut Altman werden manche SaaS-Unternehmen (Software als Abo-Dienst) weiterhin sehr wertvoll sein und KI für sich nutzen. Andere seien nur noch eine "dünnere Schicht" und würden den Wandel nicht überleben. Etablierte Unternehmen mit starken Kernsystemen, die KI sinnvoll einsetzen, hätten die besten Chancen.
Zuletzt hatte der Fortschritt bei KI-Agenten und Tools wie Cowork dafür gesorgt, dass Softwareunternehmen an Wert verloren. Die These: Immer mehr Aufgaben werden direkt von KI gelöst, Speziallösungen für einzelne Nischen wären dann nicht mehr notwendig.
OpenAI hat sein neuestes Coding-Modell GPT-5.3-Codex veröffentlicht. Es vereint laut OpenAI die Coding-Fähigkeiten von GPT-5.2-Codex mit den Denk- und Wissensfähigkeiten von GPT-5.2 und ist dabei 25 Prozent schneller als sein Vorgänger. Bei vier Leistungstests für Programmierung und praktische Anwendungen erreicht GPT-5.3-Codex laut OpenAI neue Bestwerte in der Branche. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft Codex 5.3 das gerade erst veröffentlichte Opus 4.6 um zwölf Prozentpunkte; für aktuelle KI-Modellverhältnisse eine riesige Lücke. Dabei verbraucht das Modell weniger Token als die eigenen Vorgänger.
OpenAI
Das Modell half zudem angeblich bei seiner eigenen Entstehung mit: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.
GPT-5.3-Codex wird für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar sein: in der Codex-App, in der CLI, in der IDE-Erweiterung und im Web. Ein API-Zugang soll folgen. Das Modell wird als erstes OpenAI-Modell mit dem Cybersecurity-Risiko "High" eingestuft: als Vorsichtsmaßnahme, wie OpenAI schreibt, obwohl es keinen sicheren Beweis gebe.
OpenAI startet Frontier-Plattform für KI-Agenten in Unternehmen
OpenAI stellt mit Frontier eine neue Plattform vor, die KI-Agenten in Unternehmen aus ihrer Isolation befreien soll. Die Agenten erhalten eigene Identitäten, gemeinsamen Kontext und sollen aus Erfahrung lernen. Die Software ist zunächst für ausgewählte Enterprise-Kunden verfügbar.
Laut Altman sind diese Spots zwar lustig, aber unehrlich. OpenAI habe sich explizit dagegen ausgesprochen, Werbung so einzusetzen, wie Anthropic es darstellt: als subtile Beeinflussung, eingebunden in persönliche, vertrauliche Chat-Gespräche. Er wirft Anthropic zudem Elitismus vor: OpenAI wolle KI für Milliarden Menschen zugänglich machen, die sich keine Abos leisten können. Anthropic hingegen bediene mit einem teuren Produkt primär wohlhabende Kunden.
Zur Wahrheit gehört auch: Die Dystopie, die Anthropic in den Werbespots skizziert, hat Altman früher selbst prophezeit, als sie in sein Anti-Google-Narrativ passte. Und gerade bei börsennotierten Unternehmen – und einen Börsengang hat OpenAI Ende des Jahres vor – hat Werbung die Eigenschaft, Überhand zu nehmen und an Einfluss zu gewinnen, wenn der Wachstumsdruck steigt.
Das KI-Chip-Startup Cerebras Systems hat eine Finanzierungsrunde über eine Milliarde US-Dollar abgeschlossen. Die Bewertung des Unternehmens liegt damit bei rund 23 Milliarden Dollar, wie es in einer Pressemitteilung bekannt gibt. Die Runde wurde von Tiger Global angeführt, mit Beteiligung von Benchmark, Fidelity, AMD, Coatue und weiteren Investoren.
Cerebras mit Sitz in Sunnyvale, Kalifornien, entwickelt spezielle KI-Chips mit Fokus auf schnelle Inferenz, also kurze Antwortzeiten der KI-Modelle. Das Besondere an Cerebras ist der Ansatz, einen kompletten Wafer als einen einzigen Chip zu nutzen – die sogenannte "Wafer Scale Engine" (WSE). Das aktuelle Hauptprodukt ist der WSE-3.
Bei der Finanzierungsrunde geholfen haben dürfte der kürzlich bekannt gegebene Deal mit OpenAI über mehr als zehn Milliarden US-Dollar. Das KI-Labor will über einen Zeitraum von drei Jahren 750 Megawatt Rechenkapazität für ChatGPT erwerben. Sehr wahrscheinlich will OpenAI die Antwortzeiten seiner Reasoning- und Code-Modelle beschleunigen, die zwar die wohl besten Ergebnisse am Markt liefern, aber dafür recht lange brauchen. Sam Altman versprach kürzlich "dramatisch schnellere" Antwortzeiten im Kontext des Code-Modells Codex.