Short

OpenAI hat neue Funktionen für seine Agenten-Entwicklung veröffentlicht. Die Agents SDK ist jetzt auch in TypeScript verfügbar und bietet damit denselben Funktionsumfang wie die Python-Version, inklusive Kontrollmechanismen und menschlicher Freigabe. Neu ist außerdem die RealtimeAgent-Funktion, mit der sich Sprachagenten direkt im Client oder auf dem Server erstellen lassen. Diese unterstützen Sprachunterbrechungen und Werkzeugaufrufe. Zudem zeigt das Traces-Dashboard nun auch Echtzeitdaten von Sprachagenten, inklusive Audio, Werkzeugnutzung und Unterbrechungen. Schließlich wurde das Sprachmodell überarbeitet: Es folgt Anweisungen laut OpenAI nun besser, ruft Werkzeuge zuverlässiger auf und reagiert stabiler auf Unterbrechungen. Die neue Version ist als "gpt-4o-realtime-preview-2025-06-03" in der Realtime- und Chat-API verfügbar.

Short

Anwälte haben in derzeit 129 dokumentierten Fällen aus zwölf Ländern nachweislich falsche, von KI-Tools wie ChatGPT erfundene Inhalte in Gerichtsverfahren eingebracht. Diese Fälle werden in einer laufend aktualisierten Datenbank von Dmien Charlotin erfasst, einem Juristen für internationales Recht und Dozenten für KI und Recht an der HEC Paris. Erfasst sind nur Fälle mit offiziellen Disziplinarmaßnahmen oder gerichtlichen Entscheidungen – sie zeigen laut Charlotin also lediglich die Spitze des Eisbergs. Allein im Mai 2025 kamen mehr als 30 neue Fälle hinzu. Die Datenbank soll auf die wachsenden Risiken durch unkritischen KI-Einsatz im Rechtswesen hinweisen.

Short

TikToker spielen "Veo 3" umgekehrt. Statt sich von Googles neuem KI-Videomodell täuschen zu lassen, geben sich echte Menschen nun selbst als KI-Videos aus. Musiker präsentieren etwa ältere Songs als angeblich von Veo 3 generierte Clips, um mehr Aufmerksamkeit zu bekommen. Andere Nutzer stellen sich als "Prompts" dar und spielen mit der Idee, nur Teil eines KI-Outputs zu sein. Beliebt sind auch "Echt oder KI?"-Clips, bei denen Zuschauer raten sollen, welche Szenen mit Veo 3 erstellt wurden. Das zeigt, wie stark die Grenzen zwischen KI-Inhalten und echten Aufnahmen verschwimmen. Laut Google wurden mit Veo 3 in den vergangenen Tagen Millionen KI-Videos generiert.

Short

Meta will angeblich 90 Prozent seiner Datenschutz- und Risikoprüfungen durch KI-Systeme ersetzen, berichtet NPR unter Berufung auf interne Unterlagen. Entscheidungen über neue Funktionen, Algorithmen oder Inhaltsregeln sollen künftig meist automatisiert getroffen werden. Produktteams beantworten dafür einen Fragebogen, woraufhin ein KI-System Risiken bewertet. Nur noch in Ausnahmefällen erfolgt eine manuelle Prüfung. Meta betont, dass weiterhin Menschen bei komplexen Fällen eingebunden seien und "niedrige Risiken" automatisiert würden. In der EU soll laut Meta weiterhin ein separates Prüfverfahren gelten.

Google News