Anzeige
Skip to content
Read full article about: KI-Agenten können bereits die meisten getesteten Smart-Contract-Schwachstellen ausnutzen

OpenAI und die Krypto-Investmentfirma Paradigm haben gemeinsam EVMbench entwickelt, einen Testrahmen, der misst, wie gut KI-Agenten Sicherheitslücken in Smart Contracts auf Ethereum-Blockchains finden, reparieren und ausnutzen können. Der Datensatz umfasst 120 Schwachstellen aus 40 echten Sicherheitsprüfungen.

In der realistischsten Testumgebung interagieren die KI-Agenten mit einer lokalen Blockchain und müssen Angriffe vollständig selbst durchführen.

Das beste Modell, GPT-5.3-Codex, schaffte es, 72 Prozent der Schwachstellen erfolgreich auszunutzen und 41,5 Prozent zu reparieren. Beim Erkennen lag Claude Opus 4.6 mit 45,6 Prozent vorn.

Die größte Hürde für die KI-Agenten ist laut den Forschern nicht das Ausnutzen oder Reparieren selbst, sondern das Auffinden der Schwachstellen in großen Codebasen. Bekamen die Agenten Hinweise, wo eine Lücke liegt, stieg die Erfolgsquote beim Ausnutzen von 63 auf 96 Prozent und beim Reparieren von 39 auf 94 Prozent.

Angesichts der über 100 Milliarden Dollar in Smart Contracts sehen die Autoren sowohl Chancen für bessere Sicherheit als auch wachsende Risiken.

Read full article about: OpenClaw-Entwickler Peter Steinberger wechselt zu OpenAI für neue KI-Agenten

Peter Steinberger, Entwickler des Open-Source-Projekts OpenClaw, wechselt zu OpenAI. Dort soll er die nächste Generation persönlicher KI-Agenten vorantreiben. OpenAI-CEO Sam Altman bezeichnete Steinberger als Ausnahmetalent mit vielen Ideen zur Zukunft intelligenter Agenten, die miteinander interagieren und Menschen nützliche Dinge erledigen. Altman erwartet, dass diese Arbeit schnell zum Kern des OpenAI-Produktangebots wird.

OpenClaw, Steinbergers ursprüngliches Hobbyprojekt, wird in eine Stiftung überführt und bleibt als Open-Source-Projekt erhalten. OpenAI unterstützte das Projekt bereits finanziell. Die Zukunft sei "extrem multi-agentisch", so Altman.

Steinberger schreibt in seinem Blog, er habe in San Francisco mit mehreren großen KI-Laboren gesprochen, sich aber letztlich für OpenAI entschieden, weil beide die gleiche Vision teilten.

Ich will die Welt verändern, nicht ein großes Unternehmen aufbauen – und die Zusammenarbeit mit OpenAI ist der schnellste Weg, das zu allen zu bringen.

Peter Steinberger

Steinbergers erklärtes Ziel: einen Agenten bauen, den selbst seine Mutter nutzen kann – dafür brauche es grundlegende Veränderungen, mehr Sicherheitsforschung und Zugang zu den neuesten Modellen.

Read full article about: Google und OpenAI beklagen KI-Datendiebstahl durch Modell-Destillation

Google und OpenAI beschweren sich über Datendiebstahl (ja, richtig gelesen). Laut Google wurde Gemini massiv von Angreifern attackiert, die das Modell durch sogenannte Destillation kopieren wollten. Eine Kampagne habe Gemini über 100.000 Mal mit Anfragen bombardiert, berichtet NBC News. Google nennt das Diebstahl geistigen Eigentums. Die Angreifer seien vor allem Firmen und Forscher auf der Suche nach einem Wettbewerbsvorteil.

Parallel hat OpenAI dem US-Kongress ein Memo vorgelegt, in dem es Deepseek vorwirft, mit neuen, verschleierten Methoden US-Modelle zu kopieren. OpenAI warnt zudem vor Chinas massivem Energieausbau: 2025 habe China zehnmal so viel neue Stromkapazität zugebaut wie die USA. In dem Memo bestätigt OpenAI zudem, dass ChatGPT derzeit mit rund zehn Prozent monatlich wächst.

Bei der Destillation wird ein KI-Modell mit Tausenden gezielten Anfragen dazu gebracht, insbesondere seine innere Logik, die sogenannten "Reasoning-Schritte", preiszugeben. Daraus lässt sich ein günstigeres Modell mit ähnlichen Fähigkeiten bauen – ohne selbst Milliarden zu investieren. Googles Sicherheitschef John Hultquist warnt, dass künftig auch kleinere Firmen mit eigenen KI-Modellen gefährdet seien, besonders wenn diese mit sensiblen Geschäftsdaten trainiert wurden.

OpenAI bringt mit Codex-Spark ein Echtzeit-Coding-Modell auf Cerebras-Hardware

OpenAI veröffentlicht mit GPT-5.3-Codex-Spark ein kleineres Coding-Modell, das auf Cerebras-Hardware läuft und über 1000 Tokens pro Sekunde liefern soll. Es ist das erste Modell, das speziell für Echtzeit-Programmierung optimiert ist.

Read full article about: OpenAI stellt GPT-4o und weitere ältere KI-Modelle in ChatGPT endgültig ein

OpenAI stellt am 13. Februar 2026 mehrere ältere KI-Modelle in ChatGPT ein: GPT-4o, GPT-4.1, GPT-4.1 mini und o4-mini. In der API bleiben die Modelle vorerst verfügbar. Offiziell begründet das Unternehmen den Schritt mit gesunkenem Traffic: Nur noch 0,1 Prozent der Nutzer wählen GPT-4o täglich.

Dass OpenAI speziell zu GPT-4o so detailliert kommuniziert, hat einen Grund: Das Modell hat eine wechselhafte Geschichte. OpenAI hatte es bereits im August 2025 abgeschaltet, dann aber nach massivem Nutzer-Backlash für zahlende Abonnenten wieder aktiviert. Einige Menschen hatten sich emotional an das Modell gebunden, das für seinen gefallsüchtigen Kommunikationsstil bekannt war. OpenAI adressiert das am Ende des Posts:

Wir wissen, dass der Verlust des Zugangs zu GPT-4o für einige Nutzer frustrierend sein wird, und wir haben diese Entscheidung nicht leichtfertig getroffen. Modelle abzuschalten ist nie einfach, aber es erlaubt uns, die Modelle zu verbessern, die die meisten Menschen heute nutzen.

OpenAI

OpenAI verweist zudem auf die verbesserten Nachfolger GPT-5.1 und GPT-5.2, in die das Feedback der GPT-4o-Nutzer eingeflossen sei. Nutzer können nun Ton und Stil von ChatGPT anpassen, etwa Wärme und Enthusiasmus einstellen. Die GPT-4o-Bewegung wird das nicht überzeugen: Mehr als 20 000 Menschen hatten Petitionen gegen die Abschaltung unterzeichnet.

Pentagon rollt ChatGPT aus und drängt auf KI ohne Schutzmaßnahmen auf sensiblen Netzwerken

Das Pentagon drängt führende KI-Unternehmen wie OpenAI, Anthropic, Google und xAI, ihre KI-Werkzeuge ohne die üblichen Nutzungsbeschränkungen auf sicherheitseingestuften Militärnetzwerken bereitzustellen.

Read full article about: OpenAI nutzt angepasste ChatGPT-Version zur Jagd auf interne Whistleblower

OpenAI setzt eine spezielle Version von ChatGPT ein, um interne Informationslecks aufzuspüren. Das berichtet The Information unter Berufung auf eine mit dem Vorgang vertraute Person. Wenn ein Nachrichtenartikel über interne Vorgänge bei OpenAI erscheint, füttern Sicherheitsmitarbeiter den Text in diese ChatGPT-Version, die Zugriff auf interne Dokumente sowie Slack- und E-Mail-Nachrichten der Mitarbeiter hat.

Das System kann dann mögliche Quellen des Lecks vorschlagen, indem es Dateien oder Kommunikationskanäle identifiziert, die die veröffentlichten Informationen enthalten, und zeigt, wer darauf Zugriff hatte. Ob OpenAI mit dieser Methode tatsächlich schon jemanden überführt hat, ist nicht bekannt.

OpenAI-Ingenieure stellten kürzlich die Architektur eines internen KI-Agenten vor, der hier zum Einsatz kommen könnte: Er soll Mitarbeitern komplexe Datenanalysen in natürlicher Sprache ermöglichen und hat auch Zugang zu institutionellem Wissen in Slack-Nachrichten, Google Docs und mehr.