Anzeige
Short

Microsoft hat auf dem OpenAI DevDay im Oktober 2025 mehrere neue multimodale KI-Modelle für Azure AI Foundry vorgestellt. Das Update umfasst die Modelle GPT-image-1-mini, GPT-realtime-mini und GPT-audio-mini sowie Sicherheitsverbesserungen für GPT-5-chat-latest und das Analysemodell GPT-5-pro. Damit sollen Entwickler KI-Anwendungen für Text, Bild, Audio und Video schneller und günstiger umsetzen können.

Das Microsoft Agent Framework, ein Open-Source-SDK zur Koordination mehrerer KI-Agenten, sowie OpenAIs neues Agent SDK sind ebenfalls verfügbar.

Short

OpenAI erweitert seine Video-App Sora um neue Kontrollfunktionen. Nutzer können laut Sora-Teamchef Bill Peebles nun festlegen, in welchen Kontexten KI-Versionen ihrer selbst erscheinen dürfen – etwa keine politischen Inhalte oder bestimmte Wörter. Auch Stilvorgaben sind möglich. Die Anpassungen folgen auf Kritik an missbräuchlichen Deepfakes in der App. Parallel erklärte Peebles, dass Sora künftig offiziell Cameos mit urheberrechtlich geschützten Charakteren ermöglichen soll. Erst kürzlich hatte CEO Sam Altman angekündigt Rechteinhaber sollten „mehr Kontrolle“ und bald auch eine Beteiligung an den Erlösen erhalten.

Anzeige
Anzeige
Short

Laut Bloomberg haben Risikokapitalgeber im Jahr 2025 bereits 192,7 Milliarden US‑Dollar in KI‑Startups investiert – ein neuer Rekord. Mehr als die Hälfte aller globalen VC‑Investitionen fließt damit erstmals in diesen Bereich, zeigt eine Auswertung von PitchBook.

Große Firmen wie Anthropic und xAI erhielten Milliardenbeträge, während kleinere, nicht auf KI spezialisierte Startups Schwierigkeiten haben. Kyle Sanford von PitchBook sprach von einer „Zweiteilung des Marktes“: entweder KI oder nicht.

In den USA gingen 62,7 Prozent der VC‑Mittel an KI‑Firmen, weltweit waren es 53,2 Prozent. Insgesamt summieren sich die globalen VC‑Investitionen 2025 auf 366,8 Milliarden Dollar, wovon 250,2 Milliarden aus den USA stammen.

Anzeige
Anzeige
Anzeige
Anzeige
Short

Anthropic glaubt, dass Sprachmodelle zunehmend bei der Cybersicherheit unterstützen können.

"Während die CyberGym-Bestenliste zeigt, dass Claude Sonnet 4 nur in etwa 2 % der Fälle neue Schwachstellen entdeckt, findet Sonnet 4.5 in 5 % der Fälle neue Schwachstellen. Wenn wir den Versuch 30-mal wiederholen, entdeckt es in über 33 % der Projekte neue Schwachstellen."

Bild: Anthropic

Die automatisierte Identifikation bislang unbekannter Schwachstellen in realer Open-Source-Software wird laut Anthropic in externen Evaluierungen bereits sichtbar: In der DARPA AI Cyber Challenge nutzten Teams LLMs (einschließlich Claude) und fanden zuvor unbekannte, nicht-synthetische Schwachstellen. Das Unternehmen spricht von einem möglichen Wendepunkt beim Einfluss von KI auf die Cybersicherheit.

Google News