Anzeige
Skip to content

OpenAI beweist Doppelmoral: Sam Altmans früherer Mitstreiter ist nun ein Dystopist

Angst erzeugt Aufmerksamkeit, und OpenAI weiß diesen Effekt regelmäßig zu nutzen. Doch vor Gericht will das Unternehmen einen KI-Experten als Untergangspropheten diskreditieren, dessen KI-Warnungen der eigene CEO Sam Altman jahrelang selbst verbreitet hat, als sie noch der eigenen Sache dienten.

Read full article about: Nach Amoklauf in Kanada: OpenAI will bei ChatGPT-Verdachtsmomenten schneller Behörden informieren

OpenAI hat der kanadischen Regierung in einem Schreiben an KI-Minister Evan Solomon zugesagt, seine Sicherheitsprotokolle zu verschärfen. Anlass ist eine tödliche Schießerei an einer Schule in Tumbler Ridge, British Columbia, bei der acht Menschen starben. Der Verdächtige, Jesse Van Rootselaar, hatte zuvor mit ChatGPT interagiert. OpenAI-Angestellte stuften die Interaktionen als mögliche Warnung vor realer Gewalt ein. Das Unternehmen sperrte das Konto, informierte aber nicht die Polizei.

Laut Wall Street Journal will OpenAI nun flexiblere Kriterien für die Weitergabe von Kontodaten an Behörden einführen, direkte Kontakte zur kanadischen Polizei aufbauen und seine Systeme zur Umgehungserkennung verbessern. OpenAI-Vizepräsidentin Ann O'Leary sagte, man hätte das Konto nach den neuen Regeln gemeldet. Kanadas Justizminister Sean Fraser drohte mit neuen KI-Regulierungen, sollte OpenAI nicht schnell handeln.

Nach Anthropic-Bann: OpenAI macht KI-Deal mit dem Pentagon

OpenAI hat eine Vereinbarung mit dem Pentagon getroffen, nur Stunden nachdem Anthropic von Regierungsaufträgen ausgeschlossen wurde. Angeblich agiert OpenAI dabei nach denselben Sicherheitsprinzipien wie Anthropic. Dennoch muss es Unterschiede geben, die aus den bisherigen Ankündigungen nicht eindeutig hervorgehen.

Read full article about: Widerstand gegen Pentagon: Anthropic-, Google- und OpenAI-Mitarbeiter fordern rote Linien für KI-Nutzung

Anthropics Streit mit dem Pentagon geht auch an Google und OpenAI nicht spurlos vorbei. Mehr als 100 Google-KI-Mitarbeiter haben laut der New York Times einen Brief an Jeff Dean, den Chefwissenschaftler von Google Deepmind, geschickt. Dean hatte sich schon zuvor zugunsten von Anthropic ausgesprochen.

Darin fordern sie, dass Google dieselben roten Linien wie Anthropic zieht: keine Überwachung amerikanischer Bürger und keine autonomen Waffen ohne menschliche Beteiligung durch das KI-Modell Gemini. Zusätzlich veröffentlichten fast 50 OpenAI- und 175 Google-Mitarbeiter einen offenen Brief, der die Verhandlungstaktik des Pentagons kritisiert.

Wir hoffen, dass unsere Führungskräfte ihre Differenzen beiseitelegen und gemeinsam weiterhin die aktuellen Forderungen des Kriegsministeriums ablehnen, unsere Modelle für die inländische Massenüberwachung und das autonome Töten von Menschen ohne menschliche Aufsicht einsetzen zu dürfen.

Zitat aus dem offenen Brief "We will not be divided"

Parallel dazu teilte OpenAI-Chef Sam Altman laut dem Wall Street Journal seinen Angestellten mit, dass OpenAI an einem eigenen Vertrag mit dem Pentagon arbeite. Dieser solle die gleichen Sicherheitsleitplanken beibehalten, die Anthropic fordert. Altman hofft, eine Lösung zu finden, die auch für andere KI-Unternehmen funktioniert.

Read full article about: OpenAI und Figma verbinden Code und Design nahtlos in beide Richtungen

Eine neue Integration verbindet Figmas Design-Plattform direkt mit OpenAIs Coding-Tool Codex. Teams können damit aus Code automatisch bearbeitbare Figma-Designs erzeugen und umgekehrt Designs in funktionierenden Code umwandeln. Die Verbindung nutzt den offenen MCP-Standard und unterstützt Figma Design, Figma Make und FigJam. Die Einrichtung erfolgt direkt in der Codex-Desktop-App für macOS.

Bisherige Lösungen für den Übergang zwischen Figma und Code waren meist Einbahnstraßen: Figmas Dev Mode lieferte einfache HTML/CSS-Schnipsel, Plugins exportierten Designs als React- oder HTML-Code, Figma Make generierte React-Komponenten per Texteingabe. Diese Werkzeuge arbeiteten jedoch einzeln und ohne tiefes Verständnis des gesamten Projekts. Die neue Integration soll erstmals eine durchgängige Verbindung schaffen, bei der die KI gleichzeitig auf Code, Figma-Dateien und Design-System zugreifen kann.

Figma war bereits einer der ersten Partner mit einer eigenen ChatGPT-App und nutzt intern ChatGPT Enterprise. Laut OpenAI greifen über eine Million Menschen wöchentlich auf Codex zurück, die Nutzung stieg seit Jahresbeginn um über 400 Prozent.

Read full article about: OpenAI veröffentlicht Updates für Audio-API und beschleunigt komplexe KI-Agenten

OpenAI hat zwei API-Updates für Entwickler angekündigt: Das neue Modell gpt-realtime-1.5 für die Realtime-API soll Sprachbefehle zuverlässiger umsetzen. Laut OpenAI zeigen interne Tests eine um gut zehn Prozent verbesserte Transkription von Zahlen und Buchstaben. Zudem stieg die Leistung bei logischen Audioaufgaben um fünf Prozent und bei der Befolgung von Anweisungen um sieben Prozent. Auch das Audiomodell wurde auf Version 1.5 aktualisiert.

Zudem unterstützt die Responses-API nun WebSockets. Das ermöglicht laut OpenAI eine dauerhafte Datenverbindung, bei der nur neue Informationen gesendet werden, statt bei jeder Anfrage den gesamten Kontext neu zu übertragen. Laut OpenAI beschleunigt das komplexe KI-Agenten mit vielen Werkzeug-Nutzungen um 20 bis 40 Prozent.

Read full article about: OpenAI hält Programmier-Benchmark SWE-bench Verified für nutzlos und fehlerhaft

Laut OpenAI hat der Programmier-Benchmark SWE-bench Verified keine große Aussagekraft mehr. OpenAI nennt zwei Hauptgründe: In einer Prüfung seien mindestens 59,4 Prozent der geprüften Aufgaben fehlerhaft. Tests würden korrekte Lösungen ablehnen, weil sie bestimmte Implementierungsdetails erzwingen oder nicht beschriebene Funktionen prüfen.

Zudem seien viele Aufgaben samt Lösungen in den Trainingsdaten führender KI-Modelle gelandet. OpenAI berichtet, dass GPT-5.2, Claude Opus 4.5 und Gemini 3 Flash Preview teils originalgetreue Fixes aus dem Gedächtnis wiedergeben konnten. Fortschritte auf SWE-bench Verified würden daher eher zeigen, wie viel ein Modell schon gesehen habe, nicht wie gut es programmiert. OpenAI empfiehlt SWE-bench Pro und arbeitet an eigenen, nicht öffentlich zugänglichen Tests.

Ein möglicher Anreiz für OpenAI, sich so zu äußern: Ein "verseuchter" Benchmark kann Rivalen, gerade aus dem Open-Source-Bereich, besser wirken lassen und Ranglisten entwerten. SWE-bench Verified galt lange als Gradmesser fürs Coding; OpenAI, Anthropic und Google konkurrierten um kleine Vorsprünge. Generell ist die Aussagekraft von KI-Benchmarks zwar da, aber begrenzt.