OpenAIs neues KI-Modell "Spud" soll Grundlage für Super-App werden
Kurz & Knapp
- OpenAIs Umsatzchefin Denise Dresser skizziert in einem internen Memo die strategische Ausrichtung des Unternehmens: Ein neues Modell mit dem Codenamen "Spud", eine Agenten-Plattform namens "Frontier" und eine vertiefte Amazon-Partnerschaft sollen OpenAI vom Produktanbieter zur Enterprise-Infrastruktur machen.
- Der Markt habe sich von Prompts zu Agenten verschoben – Kunden wollten Systeme, die eigenständig Werkzeuge nutzen und in realen Geschäftsumgebungen zuverlässig funktionieren. OpenAI sieht die eigene Kapazität als größten Engpass.
- Dresser wirft Anthropic vor, seine Umsatzzahlen um rund 8 Milliarden Dollar aufzublähen, indem Revenue-Share-Zahlungen an Amazon und Google brutto statt netto verbucht würden.
OpenAIs Umsatzchefin Denise Dresser skizziert in einem internen Strategiepapier fünf Prioritäten für das Enterprise-Geschäft und wirft Anthropic vor, seine Umsatzzahlen um rund 8 Milliarden Dollar aufzublähen.
OpenAIs Chief Revenue Officer Denise Dresser hat in einem internen Memo, geleakt von The Verge, die strategische Ausrichtung des Unternehmens für das zweite Quartal dargelegt. Das Dokument enthält neben fünf Kernprioritäten für das Enterprise-Geschäft auch ungewöhnlich scharfe Kritik am Konkurrenten Anthropic sowie Hinweise auf bisher unbekannte Produkte und interne Codenames.
Die zentrale These: Enterprise-KI trete in eine "reifere Phase" ein. Reine Modellleistung reiche nicht mehr aus. Kunden wollten wissen, wie gut sich KI in ihre Arbeitsabläufe, Kontrollsysteme und den täglichen Betrieb einfüge. OpenAI sieht sich laut Dresser in einer Position, in der nicht die Nachfrage, sondern die Kapazität der größte Engpass sei. Mehrjährige Deals im neunstelligen Bereich würden zunehmen.
Neues Modell "Spud" soll Grundlage für eine "Super App" werden
Dresser nennt ein neues Modell mit dem internen Codenamen "Spud", das sie als "wichtigen Schritt in der Intelligenz-Grundlage für die nächste Generation von Arbeit" bezeichnet. Das Modell liefere laut erstem Kundenfeedback stärkeres Reasoning, besseres Verständnis von Absichten und Abhängigkeiten sowie zuverlässigere Ergebnisse in der Produktion.
Spud solle alle Kernprodukte von OpenAI "signifikant besser" machen und sei Teil einer iterativen Deployment-Strategie: Grenzen verschieben, in echte Produkte einbauen, aus realer Nutzung lernen und diese Erkenntnisse in bessere Systeme auf dem Weg zur "Super App" einfließen lassen. Der Compute-Vorteil von OpenAI schlage sich für Kunden bereits in höheren Token-Limits, niedrigerer Latenz und zuverlässigerer Ausführung komplexer Workflows nieder.
Von Prompts zu Agenten: "Frontier" als Plattform-Strategie
Der Markt habe sich von Prompts zu Agenten verschoben, schreibt Dresser. Kunden wollten Systeme, die eigenständig Werkzeuge nutzen, über Workflows hinweg operieren und innerhalb realer Geschäftsumgebungen zuverlässig funktionieren. Dafür brauche es Orchestrierung, Kontrolle, Sicherheit und Governance.
OpenAI will diesen Bedarf mit einer Agenten-Plattform namens "Frontier" bedienen, die als "Standard-Plattform für Enterprise-Agenten" positioniert werden soll. Die Logik dahinter: Bessere Modelle steigern den Wert der Plattform, tiefere Integration erhöht die Wechselkosten, und mit jedem Workflow, der durch das System läuft, werde OpenAI schwerer zu ersetzen. Dresser formuliert das Ziel explizit: "So bewegen wir uns vom Produktanbieter zur Betriebsinfrastruktur."
Amazon-Partnerschaft als Gegengewicht zu Microsoft
Die Microsoft-Partnerschaft sei "grundlegend für unseren Erfolg" gewesen, habe aber die Fähigkeit eingeschränkt, Unternehmen dort zu erreichen, wo sie tatsächlich arbeiten. Für viele sei das Amazons Bedrock-Plattform.
Seit der Ankündigung der Amazon-Partnerschaft Ende Februar sei die Nachfrage "offen gesagt überwältigend" gewesen. Eine sogenannte "Amazon Stateful Runtime Environment" soll über einfachen Modellzugriff hinausgehen und Memory, Kontext sowie Kontinuität über Interaktionen hinweg ermöglichen. Dadurch könnten Systeme langfristig und über komplexe Geschäftsprozesse hinweg zuverlässig arbeiten.
Dresser sieht drei Vorteile: geringere Adoptionshürden für AWS-native Kunden, stärkere Position bei regulierten Branchen und tiefere Integration bis hin zur Produktionslaufzeit für mehrstufige Agenten.
Der vollständige Stack und ein Deployment-Service namens "DeployCo"
OpenAI versteht sich als Plattform mit mehreren Einstiegspunkten: ChatGPT for Work als Zugang für Wissensarbeit, Codex für Softwareentwicklung, die API für eingebettete Intelligenz, Frontier als Agenten-Plattform und die Amazon-Runtime für produktionsreife Ausführung.
"Wir sollten aufhören, wie ein Unternehmen mit separaten Produktlinien zu denken", schreibt Dresser. Stattdessen solle ein Flywheel entstehen: Bessere Modelle treiben mehr Nutzung, mehr Nutzung treibt tiefere Integration, tiefere Integration treibt Mehrprodukt-Adoption, und Mehrprodukt-Adoption mache OpenAI schwerer ersetzbar.
Der größte Engpass im Enterprise-KI-Markt sei nicht mehr die Frage, ob die Technologie funktioniere, sondern ob Unternehmen sie erfolgreich und in großem Maßstab einführen könnten. Dafür plant OpenAI einen Dienst namens "DeployCo", der zusammen mit sogenannten "Frontier Alliance"-Partnern als Deployment-Engine fungieren soll.
Frontaler Angriff auf Anthropic: Aufgeblähte Umsatzzahlen und zu wenig Compute
Der schärfste Abschnitt des Memos richtet sich gegen Anthropic. Dresser wirft dem Konkurrenten vor, sein Narrativ auf "Angst, Restriktion und die Idee, dass eine kleine Gruppe von Eliten KI kontrollieren sollte" aufzubauen. OpenAIs "positive Botschaft" werde sich langfristig durchsetzen. Das Marktumfeld beschreibt sie als "so kompetitiv wie nie".
Anthropics "strategischer Fehler", nicht genügend Rechenkapazität beschafft zu haben, zeige sich bereits im Produkt. Kunden spürten das durch Drosselung, schwächere Verfügbarkeit und ein weniger zuverlässiges Erlebnis. OpenAI habe die exponentielle Compute-Kurve früher erkannt und schneller gehandelt.
Anthropics Fokus auf Coding-Werkzeuge habe dem Unternehmen zwar einen frühen Einstieg verschafft, doch in einem Plattform-Wettbewerb könne diese Enge zur Belastung werden, wenn sich KI über Entwickler hinaus in jedes Team und jede Branche ausbreite, so Dresser.
Die härteste Behauptung betrifft die Finanzen: Anthropics angegebene Run Rate sei aufgebläht. Das Unternehmen verwende eine Bilanzierungspraxis, die Umsätze größer erscheinen lasse als sie seien, indem Revenue-Share-Zahlungen an Amazon und Google brutto verbucht würden. Laut OpenAIs eigener Analyse überbewerte das Anthropics Run Rate um rund 8 Milliarden Dollar bei den derzeit kommunizierten 30 Milliarden. OpenAI selbst verbuche den Revenue-Share mit Microsoft netto, "was eher den Standards entspricht, die für uns als börsennotiertes Unternehmen gelten würden".
Diese Behauptungen sind nicht unabhängig überprüfbar. Weder OpenAI noch Anthropic sind derzeit börsennotiert und unterliegen keiner öffentlichen Berichtspflicht. Auch The Information berichtete bereits über Bilanzierungsunterschiede zwischen den beiden Unternehmen.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnieren