Anzeige
Skip to content
Read full article about: Anthropic-Sicherheitsleiter warnt bei Abschied vor Werteverfall des Unternehmens

Es scheint so, als ob Anthropic langsam den OpenAI-Effekt spüren würde. Die zunehmende Kommerzialisierung und die Notwendigkeit, Milliarden US-Dollar einzusammeln, zwingt das Unternehmen zu Kompromissen, etwa das Geldeinsammeln bei autoritären Regimes, die Zusammenarbeit mit dem US-Verteidigungsministerium und speziell Palantir oder explizites Lob für Donald Trump.

Jetzt geht Mrinank Sharma, Leiter des Safeguards Research Teams – zuständig für die Sicherheit von KI-Modellen – und deutet in seiner Verabschiedung an, dass sich Anthropic von seinen Werten entfernt hat.

Ich habe immer wieder gesehen, wie schwer es ist, unsere Werte unser Handeln bestimmen zu lassen. Innerhalb der Organisation stehen wir ständig unter Druck, das Wichtigste beiseitezuschieben.

Mrinank Sharma

Der in Oxford promovierte Forscher sieht die Zeit gekommen, weiterzuziehen. Auch OpenAI kämpfte mit Abgängen von Sicherheitsforschern, die sich mit der schnellen Verbreitung der Technologie rein aus Umsatzgründen nicht wohlfühlten. Anthropic wurde einst von ehemaligen OpenAI-Mitarbeitern mit dem Ziel gegründet, KI-Sicherheit stärker in den Vordergrund zu stellen.

Read full article about: Google Translate lässt sich mit simplen Worten hacken und umgehen

Das Gemini-basierte Google Translate lässt sich mit Worten hacken. Nutzer können über sogenannte Prompt Injection, also eingeschleuste Anweisungen in natürlicher Sprache, das dahinterliegende Sprachmodell direkt ansprechen, statt nur Übersetzungen zu erhalten. Entdeckt wurde der Trick von einem Tumblr-Nutzer (via LessWrong). Die Methode funktioniert, indem man eine Frage in einer Fremdsprache wie Chinesisch eingibt und darunter eine englische Meta-Anweisung anfügt. Google Translate beantwortet dann die Frage, statt den Text zu übersetzen.

via Tumblr

Der LLM-Hacker "Pliny the Liberator" zeigte auf X, dass sich so sogar gefährliche Inhalte wie Anleitungen für Drogen oder Schadsoftware erzeugen lassen.

via X

Google stellte Google Translate im Dezember 2025 auf Gemini-Modelle um. Welches Modell genau zum Einsatz kommt, ist nicht bekannt; das System selbst behauptet, es nutze Gemini 1.5 Pro. Der Fall zeigt erneut, dass auch große Konzerne noch keine verlässlichen Schutzmaßnahmen gegen natürlichsprachige Angriffe haben, ein grundlegendes Sicherheitsproblem von Sprachmodellen.

Read full article about: OpenAI startet Testphase für Werbung in ChatGPT

OpenAI startet in den USA mit ChatGPT-Werbung. Der Test gilt für eingeloggte erwachsene Nutzer der kostenlosen und der "Go"-Stufe. Plus, Pro, Business, Enterprise und Education bleiben werbefrei. Alternativ kann man auch im Free-Tarif auf Werbung verzichten, erhält dann aber weniger tägliche Nachrichten.

OpenAI begründet den Schritt mit hohen Infrastrukturkosten. Werbung beeinflusse die Antworten nicht, Gespräche blieben privat. Welche Anzeige erscheint, hängt vom Gesprächsthema, früheren Chats und Interaktionen ab.

Unter-18-Jährige sehen keine Werbung, ebenso wenig werden Anzeigen bei sensiblen Themen wie Gesundheit oder Politik angezeigt. Nutzer können Anzeigen ausblenden, Werbedaten löschen und Personalisierung anpassen. Werbetreibende erhalten zusammengefasste Statistiken zu ihrer Werbung, keinen Zugang zu Chats oder persönlichen Daten.

Was immer gelten wird: Die Antworten von ChatGPT bleiben unabhängig und unvoreingenommen, Gespräche bleiben privat und die Nutzer behalten die volle Kontrolle über ihr Erlebnis.

Werbung in Chatbots ist umstritten, da die Manipulationsgefahr höher ist als bei Suchmaschinen. OpenAI betont daher, Werbung klar getrennt vom Inhalt darzustellen. Langfristig plant das Unternehmen weitere Werbeformate.

Read full article about: Neues ChatGPT-Modell soll diese Woche erscheinen

OpenAI-Chef Sam Altman hat Mitarbeitern in einer internen Slack-Nachricht mitgeteilt, dass ChatGPT wieder mehr als zehn Prozent monatlich wächst, berichtet CNBC. Die letzte offizielle Angabe sind 800 Millionen wöchentliche Nutzer aus dem Januar 2026.

Außerdem soll diese Woche ein aktualisiertes Chat-Modell für ChatGPT veröffentlicht werden; womöglich handelt es sich um die Chat-Variante des GPT-5.3-Modells, das letzte Woche als Coding-Version Codex erschien. Das Modell schneidet in agentischen Coding-Benchmarks besonders gut ab und ist laut OpenAI 25 Prozent schneller.

Das Coding-Produkt Codex sei innerhalb einer Woche um rund 50 Prozent gewachsen, so Altman, der das Wachstum als "Wahnsinn" bezeichnet. Es konkurriert direkt mit Anthropics Erfolgsprodukt Claude Code. Speziell die neue Desktop-App von Codex dürfte von OpenAI Schritt für Schritt auch für Anwendungsfälle über Code hinaus ausgebaut werden, ähnlich wie Anthropics Cowork.

Read full article about: Investoren glauben, dass KI Gehälter statt bloß Software ersetzt

Investoren wetten darauf, dass KI Gehälter statt Software-Budgets ersetzt.

"Wir haben die Ansicht vertreten, dass KI keine 'Unternehmenssoftware' im herkömmlichen Sinne ist, die auf IT-Budgets abzielt: Sie erfasst Arbeitsausgaben, und irgendwann übernimmt man menschliche Arbeitsabläufe von Ende zu Ende", erklärt Sebastian Duesterhoeft, Partner bei Lightspeed Venture Partners, gegenüber der Financial Times.

Diese Logik bildet den Hintergrund für die laufende Finanzierungsrunde, die Anthropic mit 350 Milliarden Dollar bewertet: Während klassische SaaS-Lösungen um begrenzte IT-Etats kämpfen, zielen "Agentic AI"-Systeme auf den weitaus größeren Pool der Lohnkosten.

Die Brisanz dieser Verschiebung zeigte sich bereits an den Märkten. Eine Serie von Entwicklungen – darunter neue Modelle, spezialisierte Industrie-Tools und die Nachricht, dass Goldman Sachs Bankrollen automatisieren will – löste gemeinsam einen Ausverkauf bei traditionellen Software-Aktien aus. Investoren realisieren laut der FT zunehmend, dass autonome KI-Agenten bestehende Geschäftsmodelle bedrohen könnten.

Read full article about: Benchmark-Analyse: Claude Opus 4.6 verdrängt die Konkurrenz von Platz eins

Claude Opus 4.6 ist das neue beste KI-Modell. Zumindest, bis Artificial Analysis auch OpenAIs Codex 5.3 gebenchmarkt hat, das im Coding vorn liegen dürfte. Für den Moment jedenfalls belegt Anthropics neues Modell Platz eins im Artificial Analysis Intelligence Index, der zehn Tests zu Coding, Agenten-Aufgaben und wissenschaftlichem Denken zusammenfasst. Opus 4.6 führt in drei Kategorien: agentenbasierte Arbeitsaufgaben, Terminal-Coding und Physik-Forschungsprobleme.

Artificial Analysis

Der komplette Testlauf kostete 2.486 Dollar, mehr als die 2.304 Dollar für GPT-5.2 mit maximaler Reasoning-Leistung. Opus 4.6 verbrauchte dabei rund 58 Millionen Ausgabe-Tokens, doppelt so viele wie Opus 4.5, aber deutlich weniger als die 130 Millionen von GPT-5.2. Der höhere Gesamtpreis ergibt sich aus Anthropics Token-Preisen von 5 bzw. 25 Dollar pro Million Input/Output-Tokens. Opus 4.6 ist in Claude.ai-Apps und über Anthropics API, Google Vertex, AWS Bedrock und Microsoft Azure verfügbar.

Read full article about: Anthropics neuer Claude "Fast Mode" ist 2,5-mal schneller, aber sechsmal teurer

Anthropic hat einen neuen Schnellmodus für Claude, aber der Preis hat es in sich: Der "Fast Mode" für Opus 4.6 kostet bis zu sechsmal so viel wie der Standardpreis. Dafür soll das Modell laut Anthropic 2,5-mal schneller antworten, bei gleicher Qualität. Der Modus eigne sich primär für Live-Debugging, schnelle Code-Iterationen und zeitkritische Tasks. Der Standardmodus ist laut Anthropic weiter besser für lange autonome Aufgaben, Batch-Verarbeitung/CI-CD-Pipelines und kosten-sensitive Workloads.

Standard Fast Mode
Input ≤ 200K Tokens $5 / MTok $30 / MTok
Input > 200K Tokens $10 / MTok $60 / MTok
Output ≤ 200K Tokens $25 / MTok $150 / MTok
Output > 200K Tokens $37,50 / MTok $225 / MTok

Fast Mode lässt sich in Claude Code mit /fast aktivieren und ist auch bei Cursor, GitHub Copilot, Figma und Windsurf verfügbar. Bis zum 16. Februar gilt ein Einführungsrabatt von 50 Prozent. Fast Mode ist nicht nutzbar über Amazon Bedrock, Google Vertex AI oder Microsoft Azure Foundry. Anthropic plant, den API-Zugang auszuweiten: Interessierte können sich auf eine Warteliste eintragen.

Read full article about: Zuverlässigkeit bei KI-Agenten: OpenAI und Anthropic arbeiten direkt mit Großkunden

KI-Integration in Unternehmen schafft man nicht mit ein paar ChatGPT-Accounts. OpenAI stellt hunderte neue Mitarbeiter für sein technisches Beratungsteam ein, berichtet The Information. Diese Ingenieure passen OpenAIs Modelle mit Kundendaten an und entwickeln KI-Agenten. Derzeit beschäftigt OpenAI etwa 60 solcher Ingenieure plus über 200 im technischen Support. Auch Anthropic arbeitet direkt mit Kunden zusammen.

Das Problem: KI-Agenten funktionieren ohne Anpassung oft nicht zuverlässig. Der Einzelhändler Fnac testete Modelle von OpenAI und Google für den Kundensupport – die Agenten verwechselten Seriennummern. Erst nach Unterstützung durch AI21 Labs funktionierte das System.

OpenAI Frontier Architektur
OpenAIs neue agentische Enterprise-Plattform "Frontier" zeigt die Komplexität der KI-Integration: Die Technologie muss auf bestehende Unternehmenssysteme ("Systems of Record") aufsetzen, Geschäftskontext verstehen, Agenten ausführen und optimieren – bevor Nutzer über Interfaces darauf zugreifen. | Bild: OpenAI

Fraglich ist daher, wie schnell agentische KI-Tools wie Claude Cowork ohne solche aufwendigen Integrationsprozesse Wertschöpfung erzielen. Modellverbesserungen und höhere Verlässlichkeit bei Routineaufgaben könnten helfen – allerdings gibt es noch grundlegende LLM-basierte Cybersecurity-Risiken.

Read full article about: Wahlen in Japan: Bevölkerung kämpft mit gefälschten KI-Inhalten

Auch die japanische Bevölkerung kämpft mit KI-Fake-Inhalten im Kontext von Wahlen. Bei der Unterhauswahl verbreiten sich massenhaft gefälschte Videos und Nachrichten in sozialen Medien, berichtet Japan Times. Generative KI macht die Erstellung täuschend echter Videos einfach, Plattformen wie YouTube und TikTok belohnen hohe Klickzahlen.

Ein gefälschtes Video etwa zeigte zwei Parteichefs mit einem kommunistisch anmutenden roten Logo. Ein YouTube-Kanal mit KI-generierten über Politik schimpfenden Großmüttern erreichte fast sechs Millionen Aufrufe. Laut Professor Shinichi Yamaguchi von der International University of Japan hielten 51,5 Prozent in einer umfassenden Umfrage Falschnachrichten für wahr: eine Gefahr für die Demokratie.

Es geht auch umgekehrt: Ein Kandidat postete ein Video einer großen Menschenmenge bei seiner Wahlkampfveranstaltung. Der KI-Chatbot Grok stufte es als KI-generiert ein, obwohl es authentisch war. Dieses Phänomen nennt sich Lügner-Dividende: Allein die Existenz generativer KI spielt Lügnern in die Hände. Donald Trump etwa behauptete, authentische Fotos eines Harris-Empfangs seien KI-manipuliert. Auch anderswo setzen primär konservative Kräfte KI im Wahlkampf ein, teils offen, teils verdeckt.

Read full article about: OpenAI plant spezielle ChatGPT-Version für die Regierung der Vereinigten Arabischen Emirate

OpenAI verhandelt mit dem Abu-Dhabi-Unternehmen G42 über eine spezielle ChatGPT-Version für die VAE, berichtet Semafor. Die Version soll den lokalen arabischen Dialekt beherrschen, politische Ansichten widerspiegeln und Inhaltsbeschränkungen enthalten – zunächst für die VAE-Regierung. Die globale ChatGPT-Version bleibt verfügbar, wird aber an lokale Gesetze angepasst. Nutzer werden informiert, wenn Inhalte gegen Landesrecht verstoßen. OpenAI nutzt Feinabstimmung statt Neutraining, um Kosten zu sparen.

G42 wird von Sheikh Tahnoon bin Zayed Al Nahyan geleitet, Bruder des VAE-Präsidenten, nationaler Sicherheitsberater und Chef des größten Staatsfonds. Seit Oktober 2023 besteht eine Partnerschaft zwischen G42 und OpenAI.

Dass solche Anpassungen nötig sind, zeigt: KI-Modelle sind auch kulturelle Güter. Generierte Inhalte fließen in alle Ebenen ein, kleine Änderungen kultureller Narrative könnten sich dauerhaft auswirken. Deshalb wollen China und auch die USA die Ausgaben ihrer KI-Modelle kontrollieren, sowohl um nach innen zu wirken als auch eigene Ansichten nach außen zu transportieren.