Inhalt
summary Zusammenfassung

Auf den OpenAI DevDays gibt Sam Altman Einblicke in die Zukunft der KI-Interaktion. Er beschreibt ein System, das weit über heutige Chatbots hinausgeht.

Anzeige

In einem Gespräch mit OpenAIs Chief Product Officer Kevin Weil beschrieb Altman ein System, das die Art und Weise, wie wir mit Computern und der Welt interagieren, grundlegend verändern könnte. Laut Altman "wird man zu einem Stück Glas gehen und sagen können, was immer man möchte."

Dann würden hoch entwickelte Reasoning-Modelle und Agenten, die mit allem verbunden sind, in Echtzeit maßgeschneiderte Interfaces für jede einzelne Anfrage rendern können. Nutzer sollen mit diesem System durch Gespräche interagieren oder indem sie sich durch einen eigens für sie erstellten Videostream klicken.

"Es wird eine völlig andere Art sein, einen Computer zu benutzen", erklärte der OpenAI-Chef. "Und auch, Dinge in der Welt geschehen zu lassen. Das wird ziemlich wild sein."

Anzeige
Anzeige

Die Aussagen gewinnen vor dem Hintergrund der kürzlich bekannt gewordenen Zusammenarbeit zwischen OpenAI und dem ehemaligen Apple-Chefdesigner Jony Ive an Bedeutung. Gemeinsam arbeiten sie an einem KI-Gerät für Verbraucher, das nicht wie ein herkömmliches Smartphone aussehen und hauptsächlich durch natürliche Sprachinteraktion gesteuert werden soll.

Von Chatbots zu intelligenten Agenten

Altman betonte, dass sich OpenAI auf dem Weg von Chatbots zu intelligenten Agenten befinde. Er geht davon aus, dass 2025 das Jahr sein wird, in dem sich diese Technologie wirklich durchsetzt und zu einer "bedeutenden Veränderung der Art und Weise, wie die Welt funktioniert", führen wird.

Der OpenAI-Chef geht davon aus, dass Menschen KI-Agenten mit der Erledigung von Aufgaben beauftragen werden, für die sie früher einen Monat gebraucht hätten, und diese Aufgaben in einer Stunde erledigt sein werden. Das passt zur Vision eines KI-Geräts, das in der Lage ist, komplexe Anfragen wie Reisebuchungen und Nachrichtenzusammenfassungen selbstständig zu bearbeiten.

"Wofür ein Mensch früher jahrelang gearbeitet hat, kann ich heute einen Computer fragen und er macht es in einer Stunde. Wir werden uns in Zukunft fragen, warum das nicht in einer Minute geht", sagt Altman.

OpenAI wolle in den kommenden Monaten gezielt an Modellen für solche Anwendungsfälle arbeiten. Das kürzlich veröffentlichte OpenAI o1-Modell mit verstärkten Logik-Fähigkeiten soll ein erster Schritt in diese Richtung sein.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI CEO Sam Altman skizzierte auf den OpenAI DevDays seine Vision für die Zukunft der KI-Interaktion.
  • Er stellt sich ein System vor, in dem hochentwickelte Denkmodelle und Agenten mit allem verbunden sind und in Echtzeit maßgeschneiderte Schnittstellen für jede Anfrage generieren. Der Nutzer soll mit diesem System durch "ein Stück Glas" interagieren.
  • Altman rechnet damit, dass sich die Grundlage dafür, die agentenbasierten KI-Systeme, im kommenden Jahr durchsetzen und die Art und Weise, wie die Welt funktioniert, in kurzer Zeit verändern werden. Apple-Chefdesigner Jony Ive arbeitet mit OpenAI an KI-Hardware.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!