Mustafa Suleyman, CEO of AI bei Microsoft, geht davon aus, dass KI-Modelle in den nächsten zwei Jahren weitgehend autonom agieren können. Bis die KI aber konstant präzise arbeitet, braucht es seiner Meinung nach noch zwei Modellgenerationen und bis zu 100 Mal mehr Rechenleistung.
In einem Podcast mit dem Investor Seth Rosenberg skizziert Suleyman, wann mit autonom agierenden KI-Modellen zu rechnen ist. In eng umgrenzten Anwendungsfällen könnten KI-Agenten schon bald selbstständig Aktionen ausführen, ohne dass der Nutzer jeden Schritt überwachen muss.
Bis solche Systeme zuverlässig funktionierten, sei es aber noch ein weiter Weg. Dazu müssten die Modelle nicht nur elegant formulieren können, sondern für jede Anfrage einen exakt passenden Funktionsaufruf darstellen. Derzeit hätten die Modelle für die meisten Antworten noch eine gewisse Varianz an möglichen richtigen Lösungen, so Suleyman.
Für zuverlässiges Handeln in immer neuen Anwendungen reiche die derzeitige Genauigkeit von 80 Prozent nicht aus. Für den Endnutzer sei eine Genauigkeit von 99 Prozent erforderlich, um einen Vertrauensverlust zu vermeiden.
Suleyman betont, dass es nicht um überraschende neue Fähigkeiten gehe, sondern um eine genauere Zuordnung zwischen Prompt und Ausgabe.
Er schätzt, dass die Modelle dafür 100-mal mehr Rechenleistung benötigen als heute - also auf dem Niveau von GPT-6, dem mutmaßlich übernächsten KI-Modell von OpenAI nach GPT-4 und GPT-5. Das werde voraussichtlich noch zwei Jahre dauern.
Die besten Erfolgsaussichten sieht der KI-Produktchef in Anwendungsbereichen, in denen eine gewisse Ungenauigkeit der KI-Antworten akzeptabel ist - etwa in der juristischen Fallrecherche, wo es oft mehrere vertretbare Antworten gibt. Bereiche wie die Medizin, in denen präzise Antworten überlebenswichtig sind, hält er noch für zu anspruchsvoll.
Vollständige Autonomie, bei der ein KI-System seine eigenen Pläne entwirft und Ressourcen beschafft, hält Suleyman für gefährlich und regulierungsbedürftig.
Erfolgsgeheimnis: Qualitativ hochwertige Daten
Generell glaubt der Microsoft-Manager, dass die Modellgröße für den Erfolg von KI-Systemen an Bedeutung verliert, und verweist auf Microsofts Open-Source-Modell Phi 3, das mit Blick auf Inferenz-Aufwand 100 Mal kleiner sei als die derzeit besten Modelle. Es sei zwar nicht so gut, aber mindestens so gut oder besser als GPT-3.5.
Statt der Parameteranzahl werde die Qualität der Daten zum entscheidenden Faktor. Auch OpenAI-CEO Sam Altman sagte kürzlich, dass es in Zukunft darum gehe, aus weniger Daten mehr zu lernen.
Gerade für Start-ups eröffneten sich hier Chancen. Sie könnten auch mit relativ kleinen, aber gut trainierten Modellen erfolgreich sein. Suleyman rät jungen Unternehmen, sich darauf zu konzentrieren, mit ihrer Anwendung qualitativ hochwertige Trainingsdaten zu sammeln.
Dazu gehöre, dass menschliche Experten geschult werden, um das richtige Feedback für das Training der Modelle zu geben. Seine von Microsoft übernommene KI-Firma Inflection habe bei der Entwicklung des Chatbots Pi auf ein strenges Auswahlverfahren für diese "KI-Lehrer" gesetzt, sagt Suleyman.
Die Zukunft gehört laut Suleyman personalisierten KI-Assistenten, die den Nutzer durch sein gesamtes digitales Leben begleiten. Sie sollen sich alles merken, was der Nutzer tut und sagt, und proaktiv Vorschläge machen.