Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.

Elon Musks KI-Unternehmen xAI verliert die Hälfte seiner Mitgründer

Innerhalb kurzer Zeit verliert Elon Musks KI-Startup xAI die Hälfte seiner Gründer. Sie alle loben das Team, die Zukunftsaussichten und bedanken sich bei Musk. Warum gehen sie trotzdem?

Read full article about: Deep Research in ChatGPT bekomt großes GPT-5-Update

OpenAI hat Deep Research in ChatGPT verbessert. Die Funktion wird ab sofort mit dem neuen Modell GPT-5.2 betrieben, wie OpenAI auf X mitteilte. Neu ist, dass Nutzer Apps in ChatGPT anbinden und, das könnte sehr nützlich sein, gezielt bestimmte Webseiten durchsuchen können. Außerdem lässt sich der Fortschritt der Recherche in Echtzeit verfolgen, mit Rückfragen unterbrechen oder um neue Quellen ergänzen. Ergebnisse können nun als Vollbildberichte angezeigt werden.

Bisher lief das 2025 eingeführte Deep Research auf Basis von o3- und o4-mini-Modellen. Deep Research gilt als erster "KI-Agent" in ChatGPT, da das System anhand der Nutzeranfrage eigenständig mehrstufige Websuchen startet, bevor es antwortet. Allerdings schützt auch die Websuche nicht vor Fehlern generativer KI und je länger die erzeugten Texte, desto höher das Fehlerrisiko. Gezielte Suchanfragen mit Reasoning-Modellen sind im Alltag oft zuverlässiger.

Generell gilt, dass Websuche die Halluzinationsraten zwar deutlich reduziert, aber nicht beseitigt. Mehr Tipps, wie man KI-Halluzinationen reduzieren kann, gibt es bei heise KI Pro.

Read full article about: Isomorphic Labs stellt neue KI-Engine für präziseres Medikamenten-Design vor

Isomorphic Labs, das KI-Medizin-Start-up von Google Deepmind, hat ein neues System namens "Isomorphic Labs Drug Design Engine" (IsoDDE) vorgestellt, das AlphaFold 3 übertreffen soll. Laut dem Unternehmen verdoppelt IsoDDE die Genauigkeit von AlphaFold 3 bei der Vorhersage von Protein-Ligand-Strukturen, die sich stark von den Trainingsdaten unterscheiden.

IsoDDE übertrifft laut Isomorphic Labs bei Strukturvorhersage, Erkennung von Bindungstaschen und Vorhersage der Bindungsstärke alle bisherigen Vergleichsmethoden. | Bild: Isomorphic Labs

IsoDDE kann zudem vorhersagen, wie stark ein Wirkstoff an sein Ziel bindet, und bisher unbekannte Andockstellen auf Proteinen finden, allein aus deren Bauplan. Das System soll in Sekunden Ergebnisse liefern, die fast so gut sind wie Laborexperimente. Das könnte neue Ansatzpunkte für Wirkstoffe sichtbar machen und die Vorauswahl am Computer deutlich beschleunigen.

Isomorphic Labs gibt an, IsoDDE bereits täglich in eigenen Forschungsprogrammen einzusetzen, mit dem Ziel, neue Wirkstoffe zu entwickeln. Details sind im technischen Bericht des Unternehmens verfügbar.

Read full article about: Anthropic-Sicherheitsleiter warnt bei Abschied vor Werteverfall des Unternehmens

Es scheint so, als ob Anthropic langsam den OpenAI-Effekt spüren würde. Die zunehmende Kommerzialisierung und die Notwendigkeit, Milliarden US-Dollar einzusammeln, zwingt das Unternehmen zu Kompromissen, etwa das Geldeinsammeln bei autoritären Regimes, die Zusammenarbeit mit dem US-Verteidigungsministerium und speziell Palantir oder explizites Lob für Donald Trump.

Jetzt geht Mrinank Sharma, Leiter des Safeguards Research Teams – zuständig für die Sicherheit von KI-Modellen – und deutet in seiner Verabschiedung an, dass sich Anthropic von seinen Werten entfernt hat.

Ich habe immer wieder gesehen, wie schwer es ist, unsere Werte unser Handeln bestimmen zu lassen. Innerhalb der Organisation stehen wir ständig unter Druck, das Wichtigste beiseitezuschieben.

Mrinank Sharma

Der in Oxford promovierte Forscher sieht die Zeit gekommen, weiterzuziehen. Auch OpenAI kämpfte mit Abgängen von Sicherheitsforschern, die sich mit der schnellen Verbreitung der Technologie rein aus Umsatzgründen nicht wohlfühlten. Anthropic wurde einst von ehemaligen OpenAI-Mitarbeitern mit dem Ziel gegründet, KI-Sicherheit stärker in den Vordergrund zu stellen.

Read full article about: Google Translate lässt sich mit simplen Worten hacken und umgehen

Das Gemini-basierte Google Translate lässt sich mit Worten hacken. Nutzer können über sogenannte Prompt Injection, also eingeschleuste Anweisungen in natürlicher Sprache, das dahinterliegende Sprachmodell direkt ansprechen, statt nur Übersetzungen zu erhalten. Entdeckt wurde der Trick von einem Tumblr-Nutzer (via LessWrong). Die Methode funktioniert, indem man eine Frage in einer Fremdsprache wie Chinesisch eingibt und darunter eine englische Meta-Anweisung anfügt. Google Translate beantwortet dann die Frage, statt den Text zu übersetzen.

via Tumblr

Der LLM-Hacker "Pliny the Liberator" zeigte auf X, dass sich so sogar gefährliche Inhalte wie Anleitungen für Drogen oder Schadsoftware erzeugen lassen.

via X

Google stellte Google Translate im Dezember 2025 auf Gemini-Modelle um. Welches Modell genau zum Einsatz kommt, ist nicht bekannt; das System selbst behauptet, es nutze Gemini 1.5 Pro. Der Fall zeigt erneut, dass auch große Konzerne noch keine verlässlichen Schutzmaßnahmen gegen natürlichsprachige Angriffe haben, ein grundlegendes Sicherheitsproblem von Sprachmodellen.

Read full article about: OpenAI startet Testphase für Werbung in ChatGPT

OpenAI startet in den USA mit ChatGPT-Werbung. Der Test gilt für eingeloggte erwachsene Nutzer der kostenlosen und der "Go"-Stufe. Plus, Pro, Business, Enterprise und Education bleiben werbefrei. Alternativ kann man auch im Free-Tarif auf Werbung verzichten, erhält dann aber weniger tägliche Nachrichten.

OpenAI begründet den Schritt mit hohen Infrastrukturkosten. Werbung beeinflusse die Antworten nicht, Gespräche blieben privat. Welche Anzeige erscheint, hängt vom Gesprächsthema, früheren Chats und Interaktionen ab.

Unter-18-Jährige sehen keine Werbung, ebenso wenig werden Anzeigen bei sensiblen Themen wie Gesundheit oder Politik angezeigt. Nutzer können Anzeigen ausblenden, Werbedaten löschen und Personalisierung anpassen. Werbetreibende erhalten zusammengefasste Statistiken zu ihrer Werbung, keinen Zugang zu Chats oder persönlichen Daten.

Was immer gelten wird: Die Antworten von ChatGPT bleiben unabhängig und unvoreingenommen, Gespräche bleiben privat und die Nutzer behalten die volle Kontrolle über ihr Erlebnis.

Werbung in Chatbots ist umstritten, da die Manipulationsgefahr höher ist als bei Suchmaschinen. OpenAI betont daher, Werbung klar getrennt vom Inhalt darzustellen. Langfristig plant das Unternehmen weitere Werbeformate.

Read full article about: Neues ChatGPT-Modell soll diese Woche erscheinen

OpenAI-Chef Sam Altman hat Mitarbeitern in einer internen Slack-Nachricht mitgeteilt, dass ChatGPT wieder mehr als zehn Prozent monatlich wächst, berichtet CNBC. Die letzte offizielle Angabe sind 800 Millionen wöchentliche Nutzer aus dem Januar 2026.

Außerdem soll diese Woche ein aktualisiertes Chat-Modell für ChatGPT veröffentlicht werden; womöglich handelt es sich um die Chat-Variante des GPT-5.3-Modells, das letzte Woche als Coding-Version Codex erschien. Das Modell schneidet in agentischen Coding-Benchmarks besonders gut ab und ist laut OpenAI 25 Prozent schneller.

Das Coding-Produkt Codex sei innerhalb einer Woche um rund 50 Prozent gewachsen, so Altman, der das Wachstum als "Wahnsinn" bezeichnet. Es konkurriert direkt mit Anthropics Erfolgsprodukt Claude Code. Speziell die neue Desktop-App von Codex dürfte von OpenAI Schritt für Schritt auch für Anwendungsfälle über Code hinaus ausgebaut werden, ähnlich wie Anthropics Cowork.

Read full article about: Benchmark-Analyse: Claude Opus 4.6 verdrängt die Konkurrenz von Platz eins

Claude Opus 4.6 ist das neue beste KI-Modell. Zumindest, bis Artificial Analysis auch OpenAIs Codex 5.3 gebenchmarkt hat, das im Coding vorn liegen dürfte. Für den Moment jedenfalls belegt Anthropics neues Modell Platz eins im Artificial Analysis Intelligence Index, der zehn Tests zu Coding, Agenten-Aufgaben und wissenschaftlichem Denken zusammenfasst. Opus 4.6 führt in drei Kategorien: agentenbasierte Arbeitsaufgaben, Terminal-Coding und Physik-Forschungsprobleme.

Artificial Analysis

Der komplette Testlauf kostete 2.486 Dollar, mehr als die 2.304 Dollar für GPT-5.2 mit maximaler Reasoning-Leistung. Opus 4.6 verbrauchte dabei rund 58 Millionen Ausgabe-Tokens, doppelt so viele wie Opus 4.5, aber deutlich weniger als die 130 Millionen von GPT-5.2. Der höhere Gesamtpreis ergibt sich aus Anthropics Token-Preisen von 5 bzw. 25 Dollar pro Million Input/Output-Tokens. Opus 4.6 ist in Claude.ai-Apps und über Anthropics API, Google Vertex, AWS Bedrock und Microsoft Azure verfügbar.