Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: Skills und Internetzugang: OpenAI erweitert API-Möglichkeiten für autonome KI-Agenten

OpenAI erweitert seine Responses-API um neue Funktionen für langlaufende KI-Agenten. Drei Neuerungen stehen im Mittelpunkt: Erstens ermöglicht serverseitige Komprimierung mehrstündige Agenten-Sitzungen, ohne an Kontextlimits zu stoßen. Zweitens erhalten von OpenAI gehostete Container kontrollierten Internetzugang, um Bibliotheken zu installieren und Skripte auszuführen. Drittens führt OpenAI sogenannte "Skills" ein – wiederverwendbare Pakete aus Anweisungen, Skripten und Dateien, die Agenten bei Bedarf laden und ausführen können.

Skills sollen als Mittelschicht zwischen Systemprompts und Tools dienen: Statt lange Arbeitsabläufe in jeden Prompt zu packen, werden sie als versionierte Bündel gespeichert und nur bei Bedarf aktiviert. Sie lassen sich per ZIP-Datei hochladen, versionieren und über die API in gehosteten oder lokalen Containern nutzen. OpenAI empfiehlt, Skills wie kleine Kommandozeilenprogramme zu gestalten und in Produktionsumgebungen feste Versionen zu verwenden.

Read full article about: Neues ChatGPT-Update soll Antworten sachlicher und relevanter machen

ChatGPT-Modell-Updates gibt’s jetzt auch zwischen den Modell-Versionen: OpenAI hat am 10. Februar 2026 ein Update für GPT-5.2 Instant in ChatGPT und der API veröffentlicht. Laut OpenAI verbessert das Update den Stil und die Qualität der Antworten. Nutzer sollen Antworten erhalten, die sachlicher und im Ton besser an den jeweiligen Gesprächskontext angepasst sind. Außerdem liefere das Modell bei Ratgeber- und Anleitungsfragen klarere und relevantere Antworten, wobei die wichtigsten Informationen zuverlässiger an den Anfang gestellt werden.

Das Update bezieht sich konkret auf das "Instant"-Modell, also die Variante ohne Reasoning-Schritte. In der API kann es via "gpt-5.2-chat-latest" direkt angesteuert werden, in ChatGPT muss man im Modellwechsler auf "Instant" umstellen. Das Modell kommt zudem zum Einsatz, wenn der GPT-5-Router einschätzt, dass ein teureres Reasoning-Modell nicht nötig ist, oder wenn der Nutzer keine Credits mehr für die teureren Modelle hat – insbesondere in der kostenlosen ChatGPT-Version.

Read full article about: Anthropics KI-Assistent Cowork ist jetzt auch für Windows-Nutzer verfügbar

Anthropics KI-Assistent Cowork ist nach macOS jetzt auch für Windows verfügbar. Laut dem offiziellen Claude-Account auf X bietet die Windows-Version den vollen Funktionsumfang der MacOS-Version: Dateizugriff, mehrstufige Aufgabenausführung, Plugins und MCP-Konnektoren (Schnittstellen zur Anbindung externer Dienste). Zusätzlich können Nutzer nun globale und ordnerspezifische Anweisungen festlegen, die Claude in jede Sitzung übernimmt.

Cowork auf Windows befindet sich in der Research Preview, einer frühen Testphase. Die Funktion steht allen zahlenden Claude-Abonnenten unter claude.com/cowork zur Verfügung.

Wer das System installiert und ihm Zugriff auf eigene Dateien und insbesondere datenschutzrelevante oder private Daten gibt, sollte sich der Cybersecurity-Risiken bewusst sein: Generative KI kann unter anderem durch sogenannte gegnerische Prompts (Prompt Injections) leicht gehackt werden. So geschah es auch Cowork kurze Zeit nach dem Launch.

Elon Musks KI-Unternehmen xAI verliert die Hälfte seiner Mitgründer

Innerhalb kurzer Zeit verliert Elon Musks KI-Startup xAI die Hälfte seiner Gründer. Sie alle loben das Team, die Zukunftsaussichten und bedanken sich bei Musk. Warum gehen sie trotzdem?

Read full article about: Deep Research in ChatGPT bekomt großes GPT-5-Update

OpenAI hat Deep Research in ChatGPT verbessert. Die Funktion wird ab sofort mit dem neuen Modell GPT-5.2 betrieben, wie OpenAI auf X mitteilte. Neu ist, dass Nutzer Apps in ChatGPT anbinden und, das könnte sehr nützlich sein, gezielt bestimmte Webseiten durchsuchen können. Außerdem lässt sich der Fortschritt der Recherche in Echtzeit verfolgen, mit Rückfragen unterbrechen oder um neue Quellen ergänzen. Ergebnisse können nun als Vollbildberichte angezeigt werden.

Bisher lief das 2025 eingeführte Deep Research auf Basis von o3- und o4-mini-Modellen. Deep Research gilt als erster "KI-Agent" in ChatGPT, da das System anhand der Nutzeranfrage eigenständig mehrstufige Websuchen startet, bevor es antwortet. Allerdings schützt auch die Websuche nicht vor Fehlern generativer KI und je länger die erzeugten Texte, desto höher das Fehlerrisiko. Gezielte Suchanfragen mit Reasoning-Modellen sind im Alltag oft zuverlässiger.

Generell gilt, dass Websuche die Halluzinationsraten zwar deutlich reduziert, aber nicht beseitigt. Mehr Tipps, wie man KI-Halluzinationen reduzieren kann, gibt es bei heise KI Pro.

Read full article about: Isomorphic Labs stellt neue KI-Engine für präziseres Medikamenten-Design vor

Isomorphic Labs, das KI-Medizin-Start-up von Google Deepmind, hat ein neues System namens "Isomorphic Labs Drug Design Engine" (IsoDDE) vorgestellt, das AlphaFold 3 übertreffen soll. Laut dem Unternehmen verdoppelt IsoDDE die Genauigkeit von AlphaFold 3 bei der Vorhersage von Protein-Ligand-Strukturen, die sich stark von den Trainingsdaten unterscheiden.

IsoDDE übertrifft laut Isomorphic Labs bei Strukturvorhersage, Erkennung von Bindungstaschen und Vorhersage der Bindungsstärke alle bisherigen Vergleichsmethoden. | Bild: Isomorphic Labs

IsoDDE kann zudem vorhersagen, wie stark ein Wirkstoff an sein Ziel bindet, und bisher unbekannte Andockstellen auf Proteinen finden, allein aus deren Bauplan. Das System soll in Sekunden Ergebnisse liefern, die fast so gut sind wie Laborexperimente. Das könnte neue Ansatzpunkte für Wirkstoffe sichtbar machen und die Vorauswahl am Computer deutlich beschleunigen.

Isomorphic Labs gibt an, IsoDDE bereits täglich in eigenen Forschungsprogrammen einzusetzen, mit dem Ziel, neue Wirkstoffe zu entwickeln. Details sind im technischen Bericht des Unternehmens verfügbar.

Read full article about: Anthropic-Sicherheitsleiter warnt bei Abschied vor Werteverfall des Unternehmens

Es scheint so, als ob Anthropic langsam den OpenAI-Effekt spüren würde. Die zunehmende Kommerzialisierung und die Notwendigkeit, Milliarden US-Dollar einzusammeln, zwingt das Unternehmen zu Kompromissen, etwa das Geldeinsammeln bei autoritären Regimes, die Zusammenarbeit mit dem US-Verteidigungsministerium und speziell Palantir oder explizites Lob für Donald Trump.

Jetzt geht Mrinank Sharma, Leiter des Safeguards Research Teams – zuständig für die Sicherheit von KI-Modellen – und deutet in seiner Verabschiedung an, dass sich Anthropic von seinen Werten entfernt hat.

Ich habe immer wieder gesehen, wie schwer es ist, unsere Werte unser Handeln bestimmen zu lassen. Innerhalb der Organisation stehen wir ständig unter Druck, das Wichtigste beiseitezuschieben.

Mrinank Sharma

Der in Oxford promovierte Forscher sieht die Zeit gekommen, weiterzuziehen. Auch OpenAI kämpfte mit Abgängen von Sicherheitsforschern, die sich mit der schnellen Verbreitung der Technologie rein aus Umsatzgründen nicht wohlfühlten. Anthropic wurde einst von ehemaligen OpenAI-Mitarbeitern mit dem Ziel gegründet, KI-Sicherheit stärker in den Vordergrund zu stellen.