Anzeige
Short

OpenAI zeigt, wie sich komplexe Forschungsaufgaben mit Hilfe sogenannter Deep Research Agents automatisieren lassen. Die Agenten nutzen das kürzlich via API veröffentlichte Modell o3-deep-research-2025-06-26 sowie Websuche und interne Dateisuche über das MCP-System. Eine typische Pipeline besteht aus vier Agenten: Triage, Klärung, Instruktion und eigentliche Recherche. Nutzeranfragen werden zuerst geprüft und bei Bedarf mit Rückfragen präzisiert. Anschließend erstellt ein Instruktionsagent einen strukturierten Forschungsauftrag, den der Research Agent ausführt.

Bild: OpenAI

Für weniger komplexe Aufgaben steht ein einfacherer Einzelagent auf Basis des o4-mini-Modells zur Verfügung. Das Beispiel richtet sich an Entwickler, die skalierbare Recherche-Workflows mit OpenAI-Tools aufbauen wollen.

Anzeige
Anzeige
Short

Das Video-KI-Start-up Runway startet kommende Woche die Plattform "Game Worlds", mit der Nutzer eigene Spiele im Stil von Text-Adventures per Texteingabe und Bildgenerierung erstellen können. Die Funktionen sollen schrittweise erweitert werden. Laut CEO Cristóbal Valenzuela verhandelt das Unternehmen mit Spielefirmen über den Einsatz seiner Technik und den Zugang zu deren Datensätzen für Trainingszwecke. Valenzuela sagt, Spieleentwickler reagierten derzeit schneller auf KI als Filmstudios. Game Worlds ist hier erreichbar, das folgende Video gibt einen ersten Eindruck.

Short

Context Engineering schlägt Prompt Engineering. Das glauben jedenfalls Shopify-CEO Tobi Lütke und Ex-OpenAI-Forscher Andrej Karpathy. Beide bevorzugen den Begriff, weil er besser beschreibe, worum es bei der Arbeit mit großen Sprachmodellen gehe: nämlich darum, den Kontext so aufzubereiten, dass ein Modell eine Aufgabe sinnvoll lösen kann. Lütke nennt es die "Kernfähigkeit" im Umgang mit LLMs, für Karpathy ist es "sowohl Wissenschaft als auch Intuition."

Zu wenig oder in der falschen Form – und das LLM hat nicht den richtigen Kontext für optimale Leistung. Zu viel oder zu wenig relevant – und die Kosten für das LLM steigen, während die Leistung sinken kann. Das richtig zu machen, ist alles andere als einfach.

Andrej Karpathy

Die Optimierung des Kontexts ist auch deshalb wichtig, weil die Genauigkeit von KI-Modellen – selbst bei großen Kontextfenstern – bei sehr umfangreichen Inhalten abnimmt.

Anzeige
Anzeige
Anzeige
Anzeige
Short

Die Trump-Regierung plant laut Reuters mehrere Erlasse, um den Ausbau von Rechenzentren für Künstliche Intelligenz in den USA zu beschleunigen. Ziel ist es, Hürden beim Stromnetzzugang zu senken und Bundesland für neue Anlagen bereitzustellen. Hintergrund ist der wachsende Strombedarf durch KI-Anwendungen. Ein entsprechender Aktionsplan soll am 23. Juli vorgestellt werden. Denkbar sind auch schnellere Genehmigungen auf Basis eines bundesweiten Wasserrechts. Kritiker verweisen auf überlastete Netze und lange Wartezeiten für Energieprojekte. Trump hatte zu Beginn seiner Amtszeit bereits ein Energie-Notstandsdekret erlassen und das Stargate-Projekt mit OpenAI, Oracle und SoftBank unterstützt. Am 15. Juli will er bei einer KI-Veranstaltung in Pennsylvania sprechen.

Google News