Anzeige
Short

OpenAI erweitert seine Video-App Sora um neue Kontrollfunktionen. Nutzer können laut Sora-Teamchef Bill Peebles nun festlegen, in welchen Kontexten KI-Versionen ihrer selbst erscheinen dürfen – etwa keine politischen Inhalte oder bestimmte Wörter. Auch Stilvorgaben sind möglich. Die Anpassungen folgen auf Kritik an missbräuchlichen Deepfakes in der App. Parallel erklärte Peebles, dass Sora künftig offiziell Cameos mit urheberrechtlich geschützten Charakteren ermöglichen soll. Erst kürzlich hatte CEO Sam Altman angekündigt Rechteinhaber sollten „mehr Kontrolle“ und bald auch eine Beteiligung an den Erlösen erhalten.

Anzeige
Anzeige
Short

Laut Bloomberg haben Risikokapitalgeber im Jahr 2025 bereits 192,7 Milliarden US‑Dollar in KI‑Startups investiert – ein neuer Rekord. Mehr als die Hälfte aller globalen VC‑Investitionen fließt damit erstmals in diesen Bereich, zeigt eine Auswertung von PitchBook.

Große Firmen wie Anthropic und xAI erhielten Milliardenbeträge, während kleinere, nicht auf KI spezialisierte Startups Schwierigkeiten haben. Kyle Sanford von PitchBook sprach von einer „Zweiteilung des Marktes“: entweder KI oder nicht.

In den USA gingen 62,7 Prozent der VC‑Mittel an KI‑Firmen, weltweit waren es 53,2 Prozent. Insgesamt summieren sich die globalen VC‑Investitionen 2025 auf 366,8 Milliarden Dollar, wovon 250,2 Milliarden aus den USA stammen.

Anzeige
Anzeige
Short

Anthropic glaubt, dass Sprachmodelle zunehmend bei der Cybersicherheit unterstützen können.

"Während die CyberGym-Bestenliste zeigt, dass Claude Sonnet 4 nur in etwa 2 % der Fälle neue Schwachstellen entdeckt, findet Sonnet 4.5 in 5 % der Fälle neue Schwachstellen. Wenn wir den Versuch 30-mal wiederholen, entdeckt es in über 33 % der Projekte neue Schwachstellen."

Bild: Anthropic

Die automatisierte Identifikation bislang unbekannter Schwachstellen in realer Open-Source-Software wird laut Anthropic in externen Evaluierungen bereits sichtbar: In der DARPA AI Cyber Challenge nutzten Teams LLMs (einschließlich Claude) und fanden zuvor unbekannte, nicht-synthetische Schwachstellen. Das Unternehmen spricht von einem möglichen Wendepunkt beim Einfluss von KI auf die Cybersicherheit.

Anzeige
Anzeige
Short

Es kriselt angeblich zwischen Meta und dem renommierten KI-Forscher LeCun, Leiter der KI-Forschungsabteilung FAIR. Grund ist eine neue Vorgabe, wonach FAIR-Forschungen vor Veröffentlichung stärker geprüft werden müssen. Laut sechs mit der Sache vertrauten Personen empfinden einige Mitarbeitende dies als Einschränkung der bisherigen wissenschaftlichen Freiheit. LeCun soll im September intern über einen Rücktritt nachgedacht haben, auch wegen der Einstellung von Shengjia Zhao als Metas Chefforscher.

Der Konflikt ist Teil größerer Umstrukturierungen bei Meta, begleitet von Spannungen mit neuen KI-Fachkräften und interner Kritik an der Meta-AI-App. Zudem hat es LeCun schwer: Er lehnt das gängige LLM-Paradigma ab und sucht nach neuen Ansätzen, während er sich klar gegen Trump positioniert – im Gegensatz zu CEO Zuckerberg, der sich der Trump-Regierung anbiedert.

Google News