Inhalt
summary Zusammenfassung

Laut Mira Murati, Chief Technology Officer von OpenAI, sind die internen KI-Modelle des Unternehmens technisch nicht weit von den öffentlich zugänglichen Systemen entfernt. Das lässt darauf schließen, dass zeitnah keine großen Leistungssprünge bei den öffentlichen Modellen zu erwarten sind.

Anzeige

Immer wieder kursieren Spekulationen, dass OpenAI hinter verschlossenen Türen bereits weit fortgeschrittene KI-Modelle entwickelt und gar mit Regierungen über deren Sicherheit diskutiert. CTO Mira Murati dämpft diese Erwartungen.

In einem Interview stellt OpenAIS CTO klar, dass die KI-Systeme in den Forschungslabors von OpenAI derzeit nicht wesentlich leistungsfähiger sind als die öffentlich verfügbaren Modelle. Es gebe keinen großen technologischen Vorsprung.

Murati sagt das vor dem Hintergrund der KI-Sicherheitsstrategie von OpenAI, die vorsieht, die Öffentlichkeit an der Entwicklung von KI-Systemen zu beteiligen. Das würde den Menschen ein intuitives Verständnis für die Möglichkeiten und Risiken der Technologie vermitteln und sie in die Lage versetzen, sich auf die Einführung fortschrittlicher KI vorzubereiten.

Anzeige
Anzeige

Diese Situation sei im Vergleich zu früheren technologischen Entwicklungen einzigartig: "In den Labors haben wir diese leistungsfähigen Modelle und wissen, dass sie nicht weit von dem entfernt sind, was die Öffentlichkeit kostenlos nutzen kann", sagt Murati in einem Interview mit Fortune. Das sei eine gänzlich andere Entwicklung als bei früheren Technologien.

Die Aussage impliziert auch, dass ein signifikanter Leistungssprung der öffentlich verfügbaren KI-Modelle von OpenAI bald nicht zu erwarten ist. Denn wenn die internen Systeme kaum besser sind, ist es unwahrscheinlich, dass in den nächsten Monaten dramatisch verbesserte Modelle veröffentlicht werden.

Der Prozess von der Entwicklung eines neuen Modells bis zu seiner Markteinführung ist langwierig. Die Feinabstimmung und die umfangreichen Sicherheitstests nehmen in der Regel viele Monate in Anspruch. Es ist daher unwahrscheinlich, dass OpenAI zeitnah deutlich leistungsfähigere Systeme veröffentlichen kann, wenn diese intern bisher nicht existieren oder noch im Training sind.

LLM-Kritiker wie Gary Marcus sehen darin eine Bestätigung ihrer These, dass die Skalierung dieser Art von KI-Technologie bereits ein Plateau erreicht hat. Marcus wirft OpenAI vor, nur zu bluffen. Auch Microsoft-Gründer Bill Gates sagte, er erwarte einen geringeren Sprung von GPT-4 zu GPT-5 als von GPT-2 zu GPT-4.

Demgegenüber stehen der CEO von OpenAI, Sam Altman, oder jüngst der CTO von Microsoft, Kevin Scott, die weiterhin große Entwicklungssprünge in Aussicht stellen - im Falle von Scott sogar noch für dieses Jahr.

Empfehlung
Kevin Scott, CTO von Microsoft, auf der Bühne der Build 2024 vor einer Grafik, die das exponentielle Wachstum der KI zeigt.
Ob Microsoft diese Folie wohl mit Bedacht gewählt hat? | Bild: Microsoft (Screenshot)

Tatsache ist, dass es seit der Veröffentlichung von GPT-4 keine wesentlichen Fortschritte bei den Grundfähigkeiten von LLMs, insbesondere im Bereich der Logik, gegeben hat.

Ein Leistungssprung allein durch Skalierung könnte durch Multimodalität erreicht werden - KI-Modelle lernen und verknüpfen Wissen aus vielen verschiedenen Daten statt nur aus Text, vor allem Video. OpenAIs neues Modell GPT-4 omni ist dafür ein Beispiel. Aber auch hier gibt es keinen wissenschaftlichen Konsens.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI Chief Technology Officer Mira Murati dämpft Spekulationen über hoch entwickelte interne KI-Systeme: In einem Interview stellt sie klar, dass die KI-Modelle in den Forschungslabors derzeit nicht wesentlich leistungsfähiger sind als die öffentlich verfügbaren.
  • Das impliziert auch, dass zeitnah kein signifikanter Leistungssprung der öffentlichen Modelle von OpenAI zu erwarten ist. Bis ein Modell nach dem Training auf den Markt kommt, vergehen viele Monate für Feintuning und Sicherheitstests.
  • Kritiker sehen darin eine Bestätigung, dass die Skalierung dieser Art von KI-Technologie bereits ein Plateau erreicht hat. Tatsächlich hat es seit der Veröffentlichung von GPT-4 keine signifikanten Fortschritte bei den grundlegenden Fähigkeiten von Large Language Models gegeben, insbesondere im Bereich der Logik.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!