Anzeige
Skip to content
Read full article about: OpenAI besetzt Sicherheitsposten mit Anthropic-Mitarbeiter

OpenAI hat eine im Dezember ausgeschriebene Stelle für den "Leiter Vorbereitung" besetzt. CEO Sam Altman gab auf X bekannt, dass Dylan Scandinaro die Position übernimmt. Scandinaro war zuvor im KI-Sicherheitsteam des Konkurrenten Anthropic tätig.

Altman bezeichnete Scandinaro als "mit Abstand den besten Kandidaten", den er je für diese Rolle getroffen habe. Die Dinge würden sich bald sehr schnell bewegen und OpenAI werde mit "extrem leistungsstarken Modellen" arbeiten, was entsprechende Sicherheitsvorkehrungen erfordere.

Scandinaro selbst schrieb auf X, KI entwickle sich schnell, die möglichen Vorteile seien groß – ebenso die Risiken für "extreme und sogar unwiderrufliche Schäden". Es gebe viel zu tun und wenig Zeit dafür. OpenAI kündigte kürzlich an, dass ein neues Coding-Modell im Bereich Cybersecurity die Einstufung "hoch" erhält.

Anthropic gilt als besonders sicherheitsbewusster KI-Entwickler und wurde von ehemaligen OpenAI-Mitarbeitern gegründet, die unzufrieden waren mit OpenAIs starkem Produktfokus und angeblich zu geringen Sicherheitsmaßnahmen. Altman will laut eigenen Angaben mit Scandinaro zusammenarbeiten, um notwendige Änderungen im gesamten Unternehmen umzusetzen.

Read full article about: Gemini-Modelle dominieren neue KI-Ranglisten für strategische Gesellschaftsspiele

Googles Gemini-Modelle schneiden in Gesellschaftsspielen am besten ab. Google Deepmind hat zusammen mit Kaggle die "Game Arena" um zwei neue Spiele erweitert: Werwolf und Poker. Die Plattform testet KI-Modelle in strategischen Spielen. Schach misst logisches Denken, Werwolf prüft soziale Fähigkeiten wie Kommunikation und das Erkennen von Täuschung, Poker testet den Umgang mit Risiko und unvollständigen Informationen.

Die Spiele lieferten objektive Messungen für Fähigkeiten wie Planung und Entscheidungen unter Unsicherheit. Gemini 3 Pro und Gemini 3 Flash belegen derzeit die ersten Plätze in allen Ranglisten. Die Werwolf-Benchmark dient auch der Sicherheitsforschung: Sie testet, ob Modelle Manipulation erkennen können, ohne reale Risiken einzugehen. Laut Google-Deepmind-CEO Demis Hassabis benötige die KI-Branche härtere Tests für die neuesten Modelle.

Read full article about: Firefox-Nutzer können bald alle generativen KI-Funktionen zentral blockieren

Mozilla führt mit Firefox 148 am 24. Februar neue KI-Einstellungen ein. Nutzer können damit alle generativen KI-Funktionen des Browsers an einem Ort verwalten oder komplett blockieren, schreibt Mozilla im Unternehmensblog.

Die neuen Einstellungen umfassen Übersetzungen, automatische Bildbeschreibungen in PDFs, KI-gestützte Tab-Gruppierung, Link-Vorschauen sowie einen Chatbot in der Seitenleiste. Für den Chatbot stehen Dienste wie Anthropic Claude, ChatGPT, Microsoft Copilot, Google Gemini und Le Chat Mistral zur Auswahl.

Wer keine KI-Funktionen nutzen möchte, kann mit einem Schalter alle KI-Erweiterungen blockieren. Dann erscheinen auch keine Pop-ups oder Hinweise zu bestehenden oder künftigen KI-Features. Die gewählten Einstellungen bleiben bei Updates erhalten. Wer die Funktion früher testen möchte, findet sie in Firefox Nightly.

Read full article about: OpenAI startet Codex-App für macOS zur Verwaltung mehrerer KI-Agenten

OpenAI hat die Codex-App für macOS vorgestellt. Die App ermöglicht es Entwicklern, mehrere KI-Agenten gleichzeitig zu steuern und Aufgaben parallel abzuarbeiten. Laut OpenAI ist Codex einfacher zu bedienen als ein Terminal und richtet sich damit an eine breitere Gruppe von Entwicklern.

Mit der App können Nutzer mehrere Agenten asynchron über verschiedene Projekte hinweg steuern, wiederkehrende Aufgaben mit sogenannten Automations planen und delegieren sowie über Skills Agenten mit externen Werkzeugen und Arbeitsabläufen verbinden. Zudem lässt sich die Arbeit der Agenten überprüfen und korrigieren, ohne den Kontext zu verlieren.

Die Codex-App (Download) ist für alle ChatGPT Plus-, Pro-, Business-, Enterprise- und Edu-Konten verfügbar. Für begrenzte Zeit können auch Nutzer von ChatGPT Free und Go die App testen – das untermauert, dass OpenAI hier Zielgruppen über Entwickler hinaus im Blick hat. Zudem verdoppelt OpenAI die Nutzungslimits für alle bezahlten Tarife. Die App funktioniert nahtlos mit dem CLI, der IDE-Erweiterung und der Cloud über ein einziges ChatGPT-Konto.

Read full article about: Ex-OpenAI-Forscher: Aktuelle KI-Modelle können keine echte Intelligenz erreichen

Jerry Tworek, ehemaliger VP of Research bei OpenAI, sieht ein grundlegendes Problem bei aktuellen KI-Modellen: Sie können nicht aus Fehlern lernen. "Wenn ein Modell scheitert, steht man ziemlich schnell hilflos da", sagt Tworek im Podcast Unsupervised Learning. Es gebe keinen guten Weg für ein Modell, sein Wissen nach einem Misserfolg zu aktualisieren.

Der Forscher, der an OpenAIs Reasoning-Modellen wie o1 und o3 mitarbeitete, hat OpenAI kürzlich verlassen, um dieses Problem zu lösen. Seine AGI-Prognosen hat er nach oben korrigiert. "Solange Modelle bei Problemen steckenbleiben, würde ich es nicht AGI nennen", erklärt er. KI-Training sei ein "fragiler Prozess". Menschliches Lernen sei dagegen robust und könne sich selbst stabilisieren. Intelligenz finde immer einen Weg, so Tworek.

Apple-Forscher zeigten kürzlich, dass auch Reasoning-Modelle bei schwierigen Problemen wie den "Türmen von Hanoi" einen "Reasoning-Kollaps" erleiden können. Auch andere Paper beschreiben diese Fragilität, auf die sich Tworek hier bezieht.

OpenClaw aka "Clawdbot" und Moltbook sind ein Paradies für Datendiebe

OpenClaw verspricht autonome KI-Agenten, Moltbook lässt Bots miteinander plaudern. Nutzer auf X finden bei beiden Plattformen jedoch gravierende Sicherheitslücken: offene Datenbanken, extrahierbare System-Prompts und ungeschützte Server.

Deepmind-Pionier David Silver sucht mit eigenem Start-up nach neuen Wegen zur Super-KI

David Silver, einer der wichtigsten KI-Forscher hinter großen Deepmind-Projekten wie AlphaGo und AlphaZero, verlässt die Google-Tochter und gründet ein eigenes Superintelligenz-Start-up. Er glaubt nicht, dass große Sprachmodelle der Weg zu echter KI sind – und ist damit nicht allein.