Elon Musks KI-Unternehmen xAI verliert die Hälfte seiner Mitgründer
Innerhalb kurzer Zeit verliert Elon Musks KI-Startup xAI die Hälfte seiner Gründer. Sie alle loben das Team, die Zukunftsaussichten und bedanken sich bei Musk. Warum gehen sie trotzdem?
OpenAI hat Deep Research in ChatGPT verbessert. Die Funktion wird ab sofort mit dem neuen Modell GPT-5.2 betrieben, wie OpenAI auf X mitteilte. Neu ist, dass Nutzer Apps in ChatGPT anbinden und, das könnte sehr nützlich sein, gezielt bestimmte Webseiten durchsuchen können. Außerdem lässt sich der Fortschritt der Recherche in Echtzeit verfolgen, mit Rückfragen unterbrechen oder um neue Quellen ergänzen. Ergebnisse können nun als Vollbildberichte angezeigt werden.
Bisher lief das 2025 eingeführte Deep Research auf Basis von o3- und o4-mini-Modellen. Deep Research gilt als erster "KI-Agent" in ChatGPT, da das System anhand der Nutzeranfrage eigenständig mehrstufige Websuchen startet, bevor es antwortet. Allerdings schützt auch die Websuche nicht vor Fehlern generativer KI und je länger die erzeugten Texte, desto höher das Fehlerrisiko. Gezielte Suchanfragen mit Reasoning-Modellen sind im Alltag oft zuverlässiger.
Der chinesische Robotaxi-Betreiber Pony AI hat gemeinsam mit Toyota die kommerzielle Produktion eines selbstfahrenden Elektroautos gestartet. Das erste von 1.000 vollelektrischen und autonomen Toyota bZ4X-Kompakt-SUVs ist in einem Gemeinschaftswerk von Toyota und der Guangzhou Automobile Group vom Band gelaufen. Die Fahrzeuge sollen Pony AIs Ziel unterstützen, seine Robotaxi-Flotte bis Jahresende auf über 3.000 Autos auszubauen. Der bZ4X ist eines von drei Modellen, die Pony AI mit seiner neuesten Software für autonomes Fahren in großen chinesischen Städten einsetzt.
Die Fahrzeuge nutzen Pony AIs autonomes Fahrsystem der Stufe SAE Level 4. Das heißt: Das Auto fährt in bestimmten Gebieten komplett selbstständig, ohne dass ein Mensch am Steuer sitzen muss. Ein Fahrer muss weder das Lenkrad halten noch die Straße beobachten. Allerdings gibt es noch Einschränkungen, etwa bei Einsatzgebiet oder Wetter.
Obwohl die Technik fahrerloses Fahren ermöglicht, braucht es noch menschliche Unterstützung – derzeit kommt eine Person auf 30 Fahrzeuge, die bei Problemen eingreifen können soll.
Pony AI konkurriert mit chinesischen Robotaxi-Firmen wie Baidu und WeRide.
OpenAI startet in den USA mit ChatGPT-Werbung. Der Test gilt für eingeloggte erwachsene Nutzer der kostenlosen und der "Go"-Stufe. Plus, Pro, Business, Enterprise und Education bleiben werbefrei. Alternativ kann man auch im Free-Tarif auf Werbung verzichten, erhält dann aber weniger tägliche Nachrichten.
OpenAI begründet den Schritt mit hohen Infrastrukturkosten. Werbung beeinflusse die Antworten nicht, Gespräche blieben privat. Welche Anzeige erscheint, hängt vom Gesprächsthema, früheren Chats und Interaktionen ab.
Unter-18-Jährige sehen keine Werbung, ebenso wenig werden Anzeigen bei sensiblen Themen wie Gesundheit oder Politik angezeigt. Nutzer können Anzeigen ausblenden, Werbedaten löschen und Personalisierung anpassen. Werbetreibende erhalten zusammengefasste Statistiken zu ihrer Werbung, keinen Zugang zu Chats oder persönlichen Daten.
Was immer gelten wird: Die Antworten von ChatGPT bleiben unabhängig und unvoreingenommen, Gespräche bleiben privat und die Nutzer behalten die volle Kontrolle über ihr Erlebnis.
OpenAI-Chef Sam Altman hat Mitarbeitern in einer internen Slack-Nachricht mitgeteilt, dass ChatGPT wieder mehr als zehn Prozent monatlich wächst, berichtet CNBC. Die letzte offizielle Angabe sind 800 Millionen wöchentliche Nutzer aus dem Januar 2026.
Außerdem soll diese Woche ein aktualisiertes Chat-Modell für ChatGPT veröffentlicht werden; womöglich handelt es sich um die Chat-Variante des GPT-5.3-Modells, das letzte Woche als Coding-Version Codex erschien. Das Modell schneidet in agentischen Coding-Benchmarks besonders gut ab und ist laut OpenAI 25 Prozent schneller.
Das Coding-Produkt Codex sei innerhalb einer Woche um rund 50 Prozent gewachsen, so Altman, der das Wachstum als "Wahnsinn" bezeichnet. Es konkurriert direkt mit Anthropics Erfolgsprodukt Claude Code. Speziell die neue Desktop-App von Codex dürfte von OpenAI Schritt für Schritt auch für Anwendungsfälle über Code hinaus ausgebaut werden, ähnlich wie Anthropics Cowork.
Claude Opus 4.6 ist das neue beste KI-Modell. Zumindest, bis Artificial Analysis auch OpenAIs Codex 5.3 gebenchmarkt hat, das im Coding vorn liegen dürfte. Für den Moment jedenfalls belegt Anthropics neues Modell Platz eins im Artificial Analysis Intelligence Index, der zehn Tests zu Coding, Agenten-Aufgaben und wissenschaftlichem Denken zusammenfasst. Opus 4.6 führt in drei Kategorien: agentenbasierte Arbeitsaufgaben, Terminal-Coding und Physik-Forschungsprobleme.
Artificial Analysis
Der komplette Testlauf kostete 2.486 Dollar, mehr als die 2.304 Dollar für GPT-5.2 mit maximaler Reasoning-Leistung. Opus 4.6 verbrauchte dabei rund 58 Millionen Ausgabe-Tokens, doppelt so viele wie Opus 4.5, aber deutlich weniger als die 130 Millionen von GPT-5.2. Der höhere Gesamtpreis ergibt sich aus Anthropics Token-Preisen von 5 bzw. 25 Dollar pro Million Input/Output-Tokens. Opus 4.6 ist in Claude.ai-Apps und über Anthropics API, Google Vertex, AWS Bedrock und Microsoft Azure verfügbar.
Anthropic hat einen neuen Schnellmodus für Claude, aber der Preis hat es in sich: Der "Fast Mode" für Opus 4.6 kostet bis zu sechsmal so viel wie der Standardpreis. Dafür soll das Modell laut Anthropic 2,5-mal schneller antworten, bei gleicher Qualität. Der Modus eigne sich primär für Live-Debugging, schnelle Code-Iterationen und zeitkritische Tasks. Der Standardmodus ist laut Anthropic weiter besser für lange autonome Aufgaben, Batch-Verarbeitung/CI-CD-Pipelines und kosten-sensitive Workloads.
Standard
Fast Mode
Input ≤ 200K Tokens
$5 / MTok
$30 / MTok
Input > 200K Tokens
$10 / MTok
$60 / MTok
Output ≤ 200K Tokens
$25 / MTok
$150 / MTok
Output > 200K Tokens
$37,50 / MTok
$225 / MTok
Fast Mode lässt sich in Claude Code mit /fast aktivieren und ist auch bei Cursor, GitHub Copilot, Figma und Windsurf verfügbar. Bis zum 16. Februar gilt ein Einführungsrabatt von 50 Prozent. Fast Mode ist nicht nutzbar über Amazon Bedrock, Google Vertex AI oder Microsoft Azure Foundry. Anthropic plant, den API-Zugang auszuweiten: Interessierte können sich auf eine Warteliste eintragen.