OpenAI verhandelt mit dem Abu-Dhabi-Unternehmen G42 über eine spezielle ChatGPT-Version für die VAE, berichtet Semafor. Die Version soll den lokalen arabischen Dialekt beherrschen, politische Ansichten widerspiegeln und Inhaltsbeschränkungen enthalten – zunächst für die VAE-Regierung. Die globale ChatGPT-Version bleibt verfügbar, wird aber an lokale Gesetze angepasst. Nutzer werden informiert, wenn Inhalte gegen Landesrecht verstoßen. OpenAI nutzt Feinabstimmung statt Neutraining, um Kosten zu sparen.
G42 wird von Sheikh Tahnoon bin Zayed Al Nahyan geleitet, Bruder des VAE-Präsidenten, nationaler Sicherheitsberater und Chef des größten Staatsfonds. Seit Oktober 2023 besteht eine Partnerschaft zwischen G42 und OpenAI.
Alphabet, Amazon, Meta und Microsoft wollen 2026 zusammen rund 610 Milliarden Dollar für Rechenzentren und KI-Infrastruktur ausgeben – etwa 70 Prozent mehr als 2025, berichtet Bloomberg. Amazon plant 200 Milliarden, Microsoft 180, Meta 125 und Alphabet 105 Milliarden Dollar. Pro Unternehmen übersteigt das fast die Budgets der letzten drei Jahre zusammen.
Trotz guter Geschäftszahlen verloren die vier Unternehmen nach Bekanntgabe der Quartalsergebnisse zusammen über 950 Milliarden Dollar an Börsenwert. Invstoren sind unsicher, ob und wann sich die hohen Investitionen auszahlen.
Unternehmen
2025 (Mrd. $)
2026 (Mrd. $)
Veränderung
Amazon
132
200
+51,5%
Alphabet
92
180
+97,8%
Meta
71
125
+76,1%
Microsoft
65
105
+61,5%
Gesamt
360
610
+69,9%
Gleichzeitig entsteht ein Kreislauf: Ein großer Teil des Börsenwerts basiert auf dem Versprechen künftiger KI-Gewinne. Weniger Ausgaben könnten als fehlendes Vertrauen in KI gedeutet werden – und die Kurse einbrechen lassen. Start-ups wie OpenAI profitieren von dieser Zirkularität: Die Investitionen von Big Tech werden zu Ausgaben bei eben diesen Unternehmen und treiben so deren Wachstum und damit Börsenwert.
"Jedes Unternehmen ist jetzt ein API-Unternehmen, ob es will oder nicht," zitiert OpenAI-CEO Sam Altman einen Satz, der sich ihm in den vergangenen Wochen besonders eingeprägt habe. Altman sagt das im Kontext des Einflusses generativer KI auf bestehende Software-Geschäftsmodelle.
Die Aussage meint: KI-Agenten können künftig selbst Code schreiben, um auf Dienste zuzugreifen – auch ohne offizielle API (Schnittstellen, über die Programme miteinander kommunizieren). Unternehmen werden also nicht gefragt, ob sie Teil dieses Systems sein wollen. Sie werden schlicht vereinnahmt, und die klassische Benutzeroberfläche verliert an Wert.
Laut Altman werden manche SaaS-Unternehmen (Software als Abo-Dienst) weiterhin sehr wertvoll sein und KI für sich nutzen. Andere seien nur noch eine "dünnere Schicht" und würden den Wandel nicht überleben. Etablierte Unternehmen mit starken Kernsystemen, die KI sinnvoll einsetzen, hätten die besten Chancen.
Zuletzt hatte der Fortschritt bei KI-Agenten und Tools wie Cowork dafür gesorgt, dass Softwareunternehmen an Wert verloren. Die These: Immer mehr Aufgaben werden direkt von KI gelöst, Speziallösungen für einzelne Nischen wären dann nicht mehr notwendig.
Apple fährt seine Pläne für einen KI-gestützten virtuellen Gesundheitscoach mit dem Codenamen "Mulberry" zurück, berichtet Bloomberg. Das Unternehmen will einige der geplanten Funktionen stattdessen einzeln in die Health-App einbauen. Die Entscheidung folgt einem Führungswechsel: Services-Chef Eddy Cue übernahm die Gesundheitsabteilung, nachdem Jeff Williams Ende letzten Jahres in den Ruhestand ging.
Cue sagte Kollegen, Apple müsse schneller und wettbewerbsfähiger werden. Konkurrenten wie Oura und Whoop böten bessere Funktionen, besonders in ihren iPhone-Apps. Der Dienst sollte ursprünglich mit iOS 26 starten, wurde mehrfach verschoben. Apple plant weiterhin einen KI-Chatbot für Gesundheitsfragen und will den neuen Siri-Chatbot mit iOS 27 für solche Anfragen nutzen. Auch OpenAI ist mit ChatGPT Health in den Gesundheitsmarkt eingestiegen.
OpenAI hat sein neuestes Coding-Modell GPT-5.3-Codex veröffentlicht. Es vereint laut OpenAI die Coding-Fähigkeiten von GPT-5.2-Codex mit den Denk- und Wissensfähigkeiten von GPT-5.2 und ist dabei 25 Prozent schneller als sein Vorgänger. Bei vier Leistungstests für Programmierung und praktische Anwendungen erreicht GPT-5.3-Codex laut OpenAI neue Bestwerte in der Branche. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft Codex 5.3 das gerade erst veröffentlichte Opus 4.6 um zwölf Prozentpunkte; für aktuelle KI-Modellverhältnisse eine riesige Lücke. Dabei verbraucht das Modell weniger Token als die eigenen Vorgänger.
OpenAI
Das Modell half zudem angeblich bei seiner eigenen Entstehung mit: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.
GPT-5.3-Codex wird für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar sein: in der Codex-App, in der CLI, in der IDE-Erweiterung und im Web. Ein API-Zugang soll folgen. Das Modell wird als erstes OpenAI-Modell mit dem Cybersecurity-Risiko "High" eingestuft: als Vorsichtsmaßnahme, wie OpenAI schreibt, obwohl es keinen sicheren Beweis gebe.
OpenAI startet Frontier-Plattform für KI-Agenten in Unternehmen
OpenAI stellt mit Frontier eine neue Plattform vor, die KI-Agenten in Unternehmen aus ihrer Isolation befreien soll. Die Agenten erhalten eigene Identitäten, gemeinsamen Kontext und sollen aus Erfahrung lernen. Die Software ist zunächst für ausgewählte Enterprise-Kunden verfügbar.
Mistral AI will mit Voxtral Transcribe 2 die Konkurrenz bei der Spracherkennung preislich unterbieten. Die zweite Generation der Spracherkennungsmodelle kostet ab 0,003 US-Dollar pro Minute und soll laut Mistral bei der Genauigkeit Modelle wie GPT-4o mini Transcribe, Gemini 2.5 Flash und Deepgram Nova übertreffen. Die Modellfamilie umfasst zwei Varianten: Voxtral Mini Transcribe V2 für die Verarbeitung größerer Audiodateien und Voxtral Realtime für Echtzeit-Anwendungen mit Verzögerungen unter 200 Millisekunden. Das doppelt so teure Voxtral Realtime nutzt eine eigene Streaming-Architektur, die Audio während des Eintreffens transkribiert, gedacht für Sprachassistenten, Live-Untertitel oder Callcenter-Analyse.
Beide neuen Modelle unterstützen 13 Sprachen, darunter Deutsch, Englisch und Chinesisch. Neue Funktionen sind Sprechererkennung, Zeitstempel auf Wortebene und die Verarbeitung von Aufnahmen bis zu drei Stunden. Voxtral Realtime steht als Open-Weights unter Apache 2.0 auf Hugging Face und per API bereit, Voxtral Mini Transcribe V2 ist nur über Le Chat, die Mistral-API sowie einen Playground verfügbar. Die erste Voxtral-Generation hatte Mistral im Juli 2025 vorgestellt.