Anzeige
Skip to content
Read full article about: Anthropics neuer Claude "Fast Mode" ist 2,5-mal schneller, aber sechsmal teurer

Anthropic hat einen neuen Schnellmodus für Claude, aber der Preis hat es in sich: Der "Fast Mode" für Opus 4.6 kostet bis zu sechsmal so viel wie der Standardpreis. Dafür soll das Modell laut Anthropic 2,5-mal schneller antworten, bei gleicher Qualität. Der Modus eigne sich primär für Live-Debugging, schnelle Code-Iterationen und zeitkritische Tasks. Der Standardmodus ist laut Anthropic weiter besser für lange autonome Aufgaben, Batch-Verarbeitung/CI-CD-Pipelines und kosten-sensitive Workloads.

Standard Fast Mode
Input ≤ 200K Tokens $5 / MTok $30 / MTok
Input > 200K Tokens $10 / MTok $60 / MTok
Output ≤ 200K Tokens $25 / MTok $150 / MTok
Output > 200K Tokens $37,50 / MTok $225 / MTok

Fast Mode lässt sich in Claude Code mit /fast aktivieren und ist auch bei Cursor, GitHub Copilot, Figma und Windsurf verfügbar. Bis zum 16. Februar gilt ein Einführungsrabatt von 50 Prozent. Fast Mode ist nicht nutzbar über Amazon Bedrock, Google Vertex AI oder Microsoft Azure Foundry. Anthropic plant, den API-Zugang auszuweiten: Interessierte können sich auf eine Warteliste eintragen.

Read full article about: Zuverlässigkeit bei KI-Agenten: OpenAI und Anthropic arbeiten direkt mit Großkunden

KI-Integration in Unternehmen schafft man nicht mit ein paar ChatGPT-Accounts. OpenAI stellt hunderte neue Mitarbeiter für sein technisches Beratungsteam ein, berichtet The Information. Diese Ingenieure passen OpenAIs Modelle mit Kundendaten an und entwickeln KI-Agenten. Derzeit beschäftigt OpenAI etwa 60 solcher Ingenieure plus über 200 im technischen Support. Auch Anthropic arbeitet direkt mit Kunden zusammen.

Das Problem: KI-Agenten funktionieren ohne Anpassung oft nicht zuverlässig. Der Einzelhändler Fnac testete Modelle von OpenAI und Google für den Kundensupport – die Agenten verwechselten Seriennummern. Erst nach Unterstützung durch AI21 Labs funktionierte das System.

OpenAI Frontier Architektur
OpenAIs neue agentische Enterprise-Plattform "Frontier" zeigt die Komplexität der KI-Integration: Die Technologie muss auf bestehende Unternehmenssysteme ("Systems of Record") aufsetzen, Geschäftskontext verstehen, Agenten ausführen und optimieren – bevor Nutzer über Interfaces darauf zugreifen. | Bild: OpenAI

Fraglich ist daher, wie schnell agentische KI-Tools wie Claude Cowork ohne solche aufwendigen Integrationsprozesse Wertschöpfung erzielen. Modellverbesserungen und höhere Verlässlichkeit bei Routineaufgaben könnten helfen – allerdings gibt es noch grundlegende LLM-basierte Cybersecurity-Risiken.

Read full article about: OpenAI plant spezielle ChatGPT-Version für die Regierung der Vereinigten Arabischen Emirate

OpenAI verhandelt mit dem Abu-Dhabi-Unternehmen G42 über eine spezielle ChatGPT-Version für die VAE, berichtet Semafor. Die Version soll den lokalen arabischen Dialekt beherrschen, politische Ansichten widerspiegeln und Inhaltsbeschränkungen enthalten – zunächst für die VAE-Regierung. Die globale ChatGPT-Version bleibt verfügbar, wird aber an lokale Gesetze angepasst. Nutzer werden informiert, wenn Inhalte gegen Landesrecht verstoßen. OpenAI nutzt Feinabstimmung statt Neutraining, um Kosten zu sparen.

G42 wird von Sheikh Tahnoon bin Zayed Al Nahyan geleitet, Bruder des VAE-Präsidenten, nationaler Sicherheitsberater und Chef des größten Staatsfonds. Seit Oktober 2023 besteht eine Partnerschaft zwischen G42 und OpenAI.

Dass solche Anpassungen nötig sind, zeigt: KI-Modelle sind auch kulturelle Güter. Generierte Inhalte fließen in alle Ebenen ein, kleine Änderungen kultureller Narrative könnten sich dauerhaft auswirken. Deshalb wollen China und auch die USA die Ausgaben ihrer KI-Modelle kontrollieren, sowohl um nach innen zu wirken als auch eigene Ansichten nach außen zu transportieren.

Read full article about: Tech-Giganten planen 2026 Rekordausgaben von 610 Milliarden Dollar für KI-Infrastruktur

Alphabet, Amazon, Meta und Microsoft wollen 2026 zusammen rund 610 Milliarden Dollar für Rechenzentren und KI-Infrastruktur ausgeben – etwa 70 Prozent mehr als 2025, berichtet Bloomberg. Amazon plant 200 Milliarden, Microsoft 180, Meta 125 und Alphabet 105 Milliarden Dollar. Pro Unternehmen übersteigt das fast die Budgets der letzten drei Jahre zusammen.

Trotz guter Geschäftszahlen verloren die vier Unternehmen nach Bekanntgabe der Quartalsergebnisse zusammen über 950 Milliarden Dollar an Börsenwert. Invstoren sind unsicher, ob und wann sich die hohen Investitionen auszahlen.

Unternehmen 2025 (Mrd. $) 2026 (Mrd. $) Veränderung
Amazon 132 200 +51,5%
Alphabet 92 180 +97,8%
Meta 71 125 +76,1%
Microsoft 65 105 +61,5%
Gesamt 360 610 +69,9%

Gleichzeitig entsteht ein Kreislauf: Ein großer Teil des Börsenwerts basiert auf dem Versprechen künftiger KI-Gewinne. Weniger Ausgaben könnten als fehlendes Vertrauen in KI gedeutet werden – und die Kurse einbrechen lassen. Start-ups wie OpenAI profitieren von dieser Zirkularität: Die Investitionen von Big Tech werden zu Ausgaben bei eben diesen Unternehmen und treiben so deren Wachstum und damit Börsenwert.

Read full article about: Sam Altman: Jedes Unternehmen ist jetzt ein API-Unternehmen – ob es will oder nicht

"Jedes Unternehmen ist jetzt ein API-Unternehmen, ob es will oder nicht," zitiert OpenAI-CEO Sam Altman einen Satz, der sich ihm in den vergangenen Wochen besonders eingeprägt habe. Altman sagt das im Kontext des Einflusses generativer KI auf bestehende Software-Geschäftsmodelle.

Die Aussage meint: KI-Agenten können künftig selbst Code schreiben, um auf Dienste zuzugreifen – auch ohne offizielle API (Schnittstellen, über die Programme miteinander kommunizieren). Unternehmen werden also nicht gefragt, ob sie Teil dieses Systems sein wollen. Sie werden schlicht vereinnahmt, und die klassische Benutzeroberfläche verliert an Wert.

Laut Altman werden manche SaaS-Unternehmen (Software als Abo-Dienst) weiterhin sehr wertvoll sein und KI für sich nutzen. Andere seien nur noch eine "dünnere Schicht" und würden den Wandel nicht überleben. Etablierte Unternehmen mit starken Kernsystemen, die KI sinnvoll einsetzen, hätten die besten Chancen.

Zuletzt hatte der Fortschritt bei KI-Agenten und Tools wie Cowork dafür gesorgt, dass Softwareunternehmen an Wert verloren. Die These: Immer mehr Aufgaben werden direkt von KI gelöst, Speziallösungen für einzelne Nischen wären dann nicht mehr notwendig.

Read full article about: Apple kürzt Pläne für KI-Gesundheitscoach

Apple fährt seine Pläne für einen KI-gestützten virtuellen Gesundheitscoach mit dem Codenamen "Mulberry" zurück, berichtet Bloomberg. Das Unternehmen will einige der geplanten Funktionen stattdessen einzeln in die Health-App einbauen. Die Entscheidung folgt einem Führungswechsel: Services-Chef Eddy Cue übernahm die Gesundheitsabteilung, nachdem Jeff Williams Ende letzten Jahres in den Ruhestand ging.

Cue sagte Kollegen, Apple müsse schneller und wettbewerbsfähiger werden. Konkurrenten wie Oura und Whoop böten bessere Funktionen, besonders in ihren iPhone-Apps. Der Dienst sollte ursprünglich mit iOS 26 starten, wurde mehrfach verschoben. Apple plant weiterhin einen KI-Chatbot für Gesundheitsfragen und will den neuen Siri-Chatbot mit iOS 27 für solche Anfragen nutzen. Auch OpenAI ist mit ChatGPT Health in den Gesundheitsmarkt eingestiegen.

Read full article about: OpenAIs GPT-5.3-Codex vereint 25 Prozent mehr Geschwindigkeit mit neuen Bestwerten im Coding

OpenAI hat sein neuestes Coding-Modell GPT-5.3-Codex veröffentlicht. Es vereint laut OpenAI die Coding-Fähigkeiten von GPT-5.2-Codex mit den Denk- und Wissensfähigkeiten von GPT-5.2 und ist dabei 25 Prozent schneller als sein Vorgänger. Bei vier Leistungstests für Programmierung und praktische Anwendungen erreicht GPT-5.3-Codex laut OpenAI neue Bestwerte in der Branche. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft Codex 5.3 das gerade erst veröffentlichte Opus 4.6 um zwölf Prozentpunkte; für aktuelle KI-Modellverhältnisse eine riesige Lücke. Dabei verbraucht das Modell weniger Token als die eigenen Vorgänger.

OpenAI

Das Modell half zudem angeblich bei seiner eigenen Entstehung mit: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.

GPT-5.3-Codex wird für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar sein: in der Codex-App, in der CLI, in der IDE-Erweiterung und im Web. Ein API-Zugang soll folgen. Das Modell wird als erstes OpenAI-Modell mit dem Cybersecurity-Risiko "High" eingestuft: als Vorsichtsmaßnahme, wie OpenAI schreibt, obwohl es keinen sicheren Beweis gebe.