Studie: Selbstreferenz triggert Bewusstseinsbehauptungen in großen Sprachmodellen
Große Sprachmodelle wie GPT oder Claude machen gelegentlich Aussagen, die Bewusstsein oder subjektives Erleben suggerieren. Ein Forschungsteam hat nun untersucht, unter welchen Bedingungen dieses Verhalten auftritt und welche internen Mechanismen es beeinflussen.
OpenAI testet derzeit Aardvark, ein KI-gestütztes Sicherheitswerkzeug, das Software-Code auf Schwachstellen untersucht. Das System basiert auf GPT-5 und soll wie ein Sicherheitsexperte arbeiten: Es analysiert Code-Repositorien, bewertet potenzielle Risiken, prüft ihre Ausnutzbarkeit in einer Testumgebung und schlägt mögliche Korrekturen vor.
In Tests erkannte die Software laut OpenAI 92 Prozent bekannter und künstlich eingefügter Schwachstellen. Auch in Open-Source-Projekten wurde Aardvark eingesetzt; dabei identifizierte es mehrere Sicherheitsprobleme, die unter anderem mit CVE-Nummern (Common Vulnerabilities and Exposures) versehen wurden.
Der Arbeitsablauf von GPT-5-Aardvark. | Bild: OpenAI
Microsoft 365 Copilot: KI-Agent führt nun autonom Aufgaben im Web aus
Microsoft erweitert seinen 365-Copilot um eine Funktion, die es KI-Agenten ermöglicht, Aufgaben im Web autonom auszuführen. Das soll die Automatisierung der Wissensarbeit vorantreiben, obwohl die Systeme derzeit weder verlässlich noch sicher sind.
OpenAI startet die Monetarisierung von Sora. Das Unternehmen führt kostenpflichtige Video-Generierungen ein, nachdem sich die 30 kostenlosen Clips pro Tag laut eigenen Angaben als deutlich zu wenig erwiesen haben. Bill Peebles von OpenAI erklärt, die aktuelle Nutzung sei wirtschaftlich nicht haltbar. Langfristig müssen die kostenlosen Kontingente sinken, da sonst die GPU-Kapazitäten nicht ausreichen.
Zudem sei das ein Schritt hin zu einer "Sora-Ökonomie", in der Rechteinhaber für Auftritte ihrer Figuren und Personen Geld verlangen können. Tatsächlich schreibt Peebles, "wir stellen uns eine Welt vor, in der Rechteinhaber extra für Gastauftritte geliebter Charaktere und Personen berechnen können."
Also die gesamte Welt außerhalb von Sora und dem generativen KI-Ökosystem.
OpenAI und Microsoft haben sich darauf geeinigt, künftig selbst zu entscheiden, was AGI ("Artificial General Intelligence") ist – und wann sie angeblich erreicht wird.
Ein Expertengremium soll das festlegen, aber wer da sitzt, nach welchen Regeln entschieden wird oder was überhaupt als AGI gilt, bleibt offen. In einem gemeinsamen Podcast zeigen Sam Altman und Satya Nadella, dass es weder eine einheitliche Definition noch einen Zeitplan gibt; nicht mal untereinander.
Ursprünglich war die Entwicklung von AGI als wissenschaftliches Ziel gedacht: eine KI, die menschenähnlich denken, lernen und Probleme lösen kann. Eine mögliche technische Sternstunde der Menschheit. Jetzt ist sie Verhandlungsmasse in einem Vertrag zwischen zwei Tech-Giganten – und damit belanglos, denn der Begriff verliert jede objektive Bedeutung und wird zum Etikett, das nach Bedarf aufgeklebt oder weggelassen wird.
Google hat eine KI-Werbung über KI-Suche ohne KI-Kennzeichnung generiert. Angeblich wurde die Werbung vollständig mit Googles eigenem KI-Tool Veo 3 erstellt. Sie wird ab heute im Fernsehen sowie ab Samstag in Kinos und Online-Medien ausgestrahlt. Um Kritik am künstlichen Aussehen von Menschen zu vermeiden, setzte Google auf eine stilisierte, spielzeugartige Darstellung.
Auf eine KI-Kennzeichnung hat das Unternehmen verzichtet. Laut Robert Wong von Google Creative Lab interessiere es Verbraucher nicht, ob eine Werbung mit KI erstellt wurde. Google versteht KI als normales Kreativwerkzeug, ähnlich wie Photoshop. Eine Weihnachtsversion der Werbung ist geplant.
KI-Blase-Debatte: Google nennt lieber den Tokenverbrauch als Umsatzzahlen
Google feiert Erfolge mit Cloud und KI-Chips, doch bei generativer KI bleibt unklar, ob nennenswerte Umsätze erzielt werden. Die vom Konzern genannten Metriken werfen mehr Fragen auf als sie beantworten.
OpenAI stellt mit gpt-oss-safeguard eine neue Modellreihe zur Sicherheitsklassifizierung vor. Die Modelle in zwei Größen (120b und 20b) sind Open Source unter Apache 2.0 und lassen sich frei einsetzen und anpassen. Im Unterschied zu klassischen Klassifikatoren können sie laut OpenAI Sicherheitsrichtlinien direkt bei der Anwendung interpretieren, statt sie vorab zu lernen. So lassen sich Regeln sofort ändern, ohne das Modell neu zu trainieren.
Entwickler können zudem die Entscheidungswege des Modells nachvollziehen. Ziel ist eine flexiblere und transparentere Durchsetzung von Sicherheitsvorgaben. Die Modelle basieren auf OpenAIs Open-Source-Modell gpt-oss und sind Teil einer Zusammenarbeit mit ROOST zur Entwicklung einer offenen Sicherheitsinfrastruktur.
Bill Gates sieht in der aktuellen KI-Euphorie eine Blase, ähnlich der Dotcom-Zeit – aber keine reine Spekulationsblase. In einem CNBC-Interview sagte er, viele Unternehmen investierten massiv in Chips und Rechenzentren, obwohl sie noch keinen Gewinn mit KI erzielten. Einige dieser Investitionen würden sich später als Fehlschläge herausstellen. Trotzdem bezeichnet Gates KI als die größte technische Entwicklung seines Lebens, der wirtschaftliche Wert sei enorm. Gleichzeitig warnt er vor zu hohen Stromkosten durch neue Rechenzentren.
Google Gemini 3 kommt noch in diesem Jahr, aber CEO Pichai managt die Erwartungen
Google bereitet die Veröffentlichung des nächsten großen KI-Modells Gemini 3 vor. CEO Sundar Pichai bestätigte im aktuellen Earnings Call, dass das neue Flaggschiff-Modell noch 2025 erscheinen soll.