Auf den OpenAI DevDays gibt Sam Altman Einblicke in die Zukunft der KI-Interaktion. Er beschreibt ein System, das weit über heutige Chatbots hinausgeht.
In einem Gespräch mit OpenAIs Chief Product Officer Kevin Weil beschrieb Altman ein System, das die Art und Weise, wie wir mit Computern und der Welt interagieren, grundlegend verändern könnte. Laut Altman "wird man zu einem Stück Glas gehen und sagen können, was immer man möchte."
Dann würden hoch entwickelte Reasoning-Modelle und Agenten, die mit allem verbunden sind, in Echtzeit maßgeschneiderte Interfaces für jede einzelne Anfrage rendern können. Nutzer sollen mit diesem System durch Gespräche interagieren oder indem sie sich durch einen eigens für sie erstellten Videostream klicken.
"Es wird eine völlig andere Art sein, einen Computer zu benutzen", erklärte der OpenAI-Chef. "Und auch, Dinge in der Welt geschehen zu lassen. Das wird ziemlich wild sein."
Die Aussagen gewinnen vor dem Hintergrund der kürzlich bekannt gewordenen Zusammenarbeit zwischen OpenAI und dem ehemaligen Apple-Chefdesigner Jony Ive an Bedeutung. Gemeinsam arbeiten sie an einem KI-Gerät für Verbraucher, das nicht wie ein herkömmliches Smartphone aussehen und hauptsächlich durch natürliche Sprachinteraktion gesteuert werden soll.
Von Chatbots zu intelligenten Agenten
Altman betonte, dass sich OpenAI auf dem Weg von Chatbots zu intelligenten Agenten befinde. Er geht davon aus, dass 2025 das Jahr sein wird, in dem sich diese Technologie wirklich durchsetzt und zu einer "bedeutenden Veränderung der Art und Weise, wie die Welt funktioniert", führen wird.
Der OpenAI-Chef geht davon aus, dass Menschen KI-Agenten mit der Erledigung von Aufgaben beauftragen werden, für die sie früher einen Monat gebraucht hätten, und diese Aufgaben in einer Stunde erledigt sein werden. Das passt zur Vision eines KI-Geräts, das in der Lage ist, komplexe Anfragen wie Reisebuchungen und Nachrichtenzusammenfassungen selbstständig zu bearbeiten.
"Wofür ein Mensch früher jahrelang gearbeitet hat, kann ich heute einen Computer fragen und er macht es in einer Stunde. Wir werden uns in Zukunft fragen, warum das nicht in einer Minute geht", sagt Altman.
OpenAI wolle in den kommenden Monaten gezielt an Modellen für solche Anwendungsfälle arbeiten. Das kürzlich veröffentlichte OpenAI o1-Modell mit verstärkten Logik-Fähigkeiten soll ein erster Schritt in diese Richtung sein.