Anzeige
Skip to content

OpenAI-Manager Weil: "2026 wird für die Wissenschaft, was 2025 für Software-Engineering war"

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Kevin Weil leitet OpenAIs Wissenschaftsteam und erwartet, dass KI-Nutzung in der Wissenschaft 2026 so selbstverständlich wird wie heute beim Programmieren.
  • Die Stärke von GPT-5 liege darin, Wissen aus verschiedenen Fachgebieten zu verbinden und als Sparringspartner für Forscher zu dienen.
  • Nach überzogenen Ankündigungen gibt sich OpenAI bescheidener: Das Modell soll nicht als Orakel auftreten, sondern Ideen liefern, die Forscher selbst prüfen müssen.

Kevin Weil leitet OpenAIs Wissenschaftsteam und glaubt, dass GPT-5 Forscher bereits heute produktiver macht. Für 2026 erwartet er deutliche Fortschritte - und mehr Bescheidenheit.

"Diese Modelle sind nicht mehr nur besser als 90 Prozent der Studierenden in Master- und Promotionsprogrammen", sagt Weil in einem Interview mit MIT Technology Review über die jüngste Generation großer Sprachmodelle. "Sie sind wirklich an der Grenze menschlicher Fähigkeiten." Als ein Beispiel für den Leistungszuwachs führt er den GPQA-Benchmark an, der PhD-Wissen in Biologie, Physik und Chemie testet: GPT-4 erreichte dort 39 Prozent, deutlich unter der Experten-Baseline von etwa 70 Prozent. GPT-5.2, das im Dezember veröffentlichte Update, komme laut OpenAI auf 92 Prozent.

Weil prognostiziert einen Wandel: "Ich denke, 2026 wird für die Wissenschaft sein, was 2025 für Software-Engineering war." Anfang 2025 habe man als Early Adopter gegolten, wenn man KI zum Codeschreiben nutzte. Zwölf Monate später falle man ohne KI-Unterstützung zurück. "In einem Jahr, wenn du Wissenschaftler bist und KI nicht intensiv nutzt, verpasst du eine Gelegenheit, die Qualität und Geschwindigkeit deines Denkens zu verbessern."

Das Unternehmen will bis 2028 einen autonomen Forschungsagenten entwickeln. Weil selbst war vorher in Führungspositionen mit eher klassischem Produktfokus bei OpenAI, davor bei Instagram und Twitter. Als Leiter von OpenAI for Science verbindet er jetzt diese Erfahrung mit seiner wissenschaftlichen Ausbildung: Weil ist studierter Physiker.

Anzeige
DEC_D_Incontent-1

KI-Kollaborateur statt Einstein-Bot

Die Stärken des Modells sieht Weil vor allem darin, Verbindungen herzustellen. "GPT 5.2 hat im Wesentlichen jedes Paper der letzten 30 Jahre gelesen", sagt er. "Und es versteht nicht nur das Feld, in dem ein bestimmter Wissenschaftler arbeitet - es kann Analogien aus anderen, nicht verwandten Feldern zusammenbringen."

Das sei mächtig, so Weil: "Man kann immer einen menschlichen Kollaborateur in einem angrenzenden Feld finden, aber es ist schwierig, tausend Kollaborateure in allen tausend angrenzenden Feldern zu finden, die relevant sein könnten." Außerdem arbeite das Modell nachts und könne zehn Anfragen parallel bearbeiten - "was bei einem Menschen etwas seltsam wäre".

Im November hatte OpenAI Fallstudien von Wissenschaftlern veröffentlicht, die GPT-5 bereits in ihrer Forschung einsetzen. Die meisten seien auf OpenAI zugekommen, nicht umgekehrt, betont Weil.

Nach gelöschten Posts: Weil gibt sich bescheidener

Die Begeisterung bei OpenAI war zuletzt bisweilen über das Ziel hinausgeschossen. Im Oktober prahlten führende Köpfe des Unternehmens, darunter Weil selbst, auf X damit, dass GPT-5 Lösungen für mehrere ungelöste Mathematikprobleme gefunden habe. Mathematiker korrigierten schnell: GPT-5 hatte in Wahrheit existierende Lösungen in alten Forschungspapieren ausgegraben. Weil und seine Kollegen löschten ihre Posts.

Anzeige
DEC_D_Incontent-2

Nun formuliert Weil vorsichtiger. Es reiche oft aus, Antworten zu finden, die existieren, aber vergessen wurden. "Wir stehen kollektiv auf den Schultern von Riesen, und wenn LLMs dieses Wissen ansammeln können, sodass wir keine Zeit mit Problemen verschwenden, die bereits gelöst sind - das ist eine Beschleunigung für sich."

Die Erwartung, dass LLMs bald eine bahnbrechende neue Entdeckung machen, dämpft er: "Ich glaube nicht, dass Modelle schon so weit sind. Vielleicht werden sie es. Ich bin optimistisch." Aber das sei auch nicht die Mission: "Unsere Mission ist es, Wissenschaft zu beschleunigen. Und ich glaube nicht, dass die Messlatte dafür eine Einstein-mäßige Neuerfindung eines ganzen Feldes ist."

Mathematiker Tao sieht Fortschritte - mit Einschränkungen

Dass KI-Modelle in der Mathematik Fortschritte machen, bestätigt auch der renommierte Mathematiker Terence Tao. Er berichtete kürzlich, dass GPT-5.2 Pro ein sogenanntes Erdos-Problem "mehr oder weniger autonom" gelöst habe - im Gegensatz zum Fall im Oktober.

Allerdings versieht Tao seine Einschätzungen mit umfangreichen Warnhinweisen. Viele Erdos-Probleme seien nie systematisch untersucht worden; wenn ein 50 Jahre altes Problem nun von einer KI gelöst werde, bedeute das nicht, dass es 50 Jahre lang "allen menschlichen Bemühungen widerstanden" habe. Tao schätzt, dass nur etwa ein bis zwei Prozent der offenen Probleme einfach genug seien, um mit heutigen KI-Tools bei minimaler menschlicher Hilfe gelöst zu werden. Je schwieriger das Problem, desto mehr menschliche Anleitung sei weiterhin nötig.

OpenAI arbeitet an "epistemologischer Bescheidenheit"

Halluzinationen bleiben selbstverständlich weiter en Problem. Für Weil hat das aber zwei Seiten. Ein Kollege, ein ehemaliger Mathematikprofessor, habe ihm gesagt: "Wenn ich forsche und Ideen mit einem Kollegen hin und her werfe, liege ich 90 Prozent der Zeit falsch, und das ist irgendwie der Punkt. Wir werfen beide Ideen in den Raum und versuchen, etwas zu finden, das funktioniert."

Genau so solle man GPT-5 verstehen, sagt Weil: nicht als Orakel, sondern als Sparringspartner. Damit das auch das Modell so sehe, arbeite OpenAI nun daran, dass das Modell sein Selbstvertrauen herunterschraubt. Statt "Hier ist die Antwort" soll es Wissenschaftlern sagen: "Hier ist etwas zum Nachdenken."

"Das ist tatsächlich etwas, woran wir viel Zeit verbringen", sagt Weil. "Sicherzustellen, dass das Modell eine Art epistemologische Bescheidenheit hat." Ob das in der Praxis über bloße Rethorik hinaus geht, wird sich zeigen.

Ein weiterer Ansatz: GPT-5 soll sich selbst überprüfen. Wenn man eine Antwort zurück in das Modell füttert, zerlegt es diese oft und hebt Fehler hervor. "Man kann das Modell gewissermaßen als seinen eigenen Kritiker einsetzen", erklärt Weil.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: MIT