OpenAI erweitert seine Video-App Sora um neue Kontrollfunktionen. Nutzer können laut Sora-Teamchef Bill Peebles nun festlegen, in welchen Kontexten KI-Versionen ihrer selbst erscheinen dürfen – etwa keine politischen Inhalte oder bestimmte Wörter. Auch Stilvorgaben sind möglich. Die Anpassungen folgen auf Kritik an missbräuchlichen Deepfakes in der App. Parallel erklärte Peebles, dass Sora künftig offiziell Cameos mit urheberrechtlich geschützten Charakteren ermöglichen soll. Erst kürzlich hatte CEO Sam Altman angekündigt Rechteinhaber sollten „mehr Kontrolle“ und bald auch eine Beteiligung an den Erlösen erhalten.
Laut Bloomberg haben Risikokapitalgeber im Jahr 2025 bereits 192,7 Milliarden US‑Dollar in KI‑Startups investiert – ein neuer Rekord. Mehr als die Hälfte aller globalen VC‑Investitionen fließt damit erstmals in diesen Bereich, zeigt eine Auswertung von PitchBook.
Große Firmen wie Anthropic und xAI erhielten Milliardenbeträge, während kleinere, nicht auf KI spezialisierte Startups Schwierigkeiten haben. Kyle Sanford von PitchBook sprach von einer „Zweiteilung des Marktes“: entweder KI oder nicht.
In den USA gingen 62,7 Prozent der VC‑Mittel an KI‑Firmen, weltweit waren es 53,2 Prozent. Insgesamt summieren sich die globalen VC‑Investitionen 2025 auf 366,8 Milliarden Dollar, wovon 250,2 Milliarden aus den USA stammen.
Anthropic glaubt, dass Sprachmodelle zunehmend bei der Cybersicherheit unterstützen können.
"Während die CyberGym-Bestenliste zeigt, dass Claude Sonnet 4 nur in etwa 2 % der Fälle neue Schwachstellen entdeckt, findet Sonnet 4.5 in 5 % der Fälle neue Schwachstellen. Wenn wir den Versuch 30-mal wiederholen, entdeckt es in über 33 % der Projekte neue Schwachstellen."
Bild: Anthropic
Die automatisierte Identifikation bislang unbekannter Schwachstellen in realer Open-Source-Software wird laut Anthropic in externen Evaluierungen bereits sichtbar: In der DARPA AI Cyber Challenge nutzten Teams LLMs (einschließlich Claude) und fanden zuvor unbekannte, nicht-synthetische Schwachstellen. Das Unternehmen spricht von einem möglichen Wendepunkt beim Einfluss von KI auf die Cybersicherheit.
Es kriselt angeblich zwischen Meta und dem renommierten KI-Forscher LeCun, Leiter der KI-Forschungsabteilung FAIR. Grund ist eine neue Vorgabe, wonach FAIR-Forschungen vor Veröffentlichung stärker geprüft werden müssen. Laut sechs mit der Sache vertrauten Personen empfinden einige Mitarbeitende dies als Einschränkung der bisherigen wissenschaftlichen Freiheit. LeCun soll im September intern über einen Rücktritt nachgedacht haben, auch wegen der Einstellung von Shengjia Zhao als Metas Chefforscher.