Anzeige
Skip to content

Physiker veröffentlicht Paper, dessen zentrale Idee von GPT-5 stammt

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Der Physiker Steve Hsu veröffentlichte eine Arbeit, deren zentrale Idee laut eigenen Angaben von GPT-5 stammt.
  • Hsu betont, dass trotz der Fortschritte menschliche Expertise weiterhin unverzichtbar bleibt: Selbst erfahrene Forscher können durch KI-Nutzung schwer erkennbare Fehler erzeugen.
  • Er sieht jedoch großes Potenzial in der Zusammenarbeit von Mensch und KI, um die Qualität wissenschaftlicher Ergebnisse zu steigern.

Der Physiker Steve Hsu hat laut eigenen Angaben ein Paper veröffentlicht, bei dem die zentrale Idee von GPT-5 stammt.

Der theoretische Beitrag zu quantenfeldtheoretischer Folienunabhängigkeit erschien in Physics Letters B. Die untersuchte Physikfrage betrifft die Linearität der Quantenevolution, ein zentrales Thema für das Verständnis der Quantenmechanik und ihrer möglichen Modifikationen.

Für den KI-Einsatz in der Forschungsarbeit nutzt er das von ihm entwickelte "Generate-Verify"-Protokoll, bei dem ein Sprachmodell einen Vorschlag macht und ein zweites Modell diesen überprüft. Damit sollen typische Fehler großer Sprachmodelle – einfache Rechenfehler und konzeptuelle Irrtümer – deutlich reduziert werden.

In seiner Arbeit kombinierte er hierfür GPT-5, Gemini 2.5-Pro und Qwen-Max, die er als besonders leistungsfähig für Physik und Mathematik einschätzt. Zur abschließenden Überprüfung nutzte er zusätzlich DeepSeek V3.1 und Grok-4 – Modelle, die laut Hsu ebenfalls über starke physikalische Fähigkeiten verfügen. Hsu betont, dass die Weitergabe von Outputs durch mehrere dieser Modellstufen die durchschnittliche Qualität der Ergebnisse erheblich steigern kann.

Anzeige
DEC_D_Incontent-1

Versteckte KI-Fehler als wissenschaftliches Risiko

Dennoch beschreibt Hsu in einem Begleitpapier zur KI-gestützten Physikforschung, dass menschliche Expertise weiterhin unverzichtbar bleibt. Selbst Personen mit fortgeschrittenem Hintergrund, etwa Doktoranden, könnten bei der Nutzung von KI in der Spitzenforschung leicht fehlerhafte Ergebnisse erzeugen. Der Forscher vergleicht die Arbeit mit LLMs mit der Zusammenarbeit mit einem "brillanten, aber unzuverlässigen Genie".

"Derzeit ist die Beteiligung menschlicher Experten im Forschungsprozess weiterhin notwendig. Die Nutzung von KI in der Spitzenforschung durch Nicht-Experten – selbst durch Personen mit beträchtlichem Fachwissen, etwa Doktoranden – führt wahrscheinlich zu großen Mengen an inhaltlich fehlerhaften, aber schwer erkennbaren Ergebnissen", schreibt Hsu.

Mit Blick in die Zukunft sieht Hsu reichlich Potenzial, in seiner Methode, aber auch insgesamt für generative KI in der Wissenschaft. So seien aufwendigere Verifikationsschritte möglich, es könnten gezielte Fragen zur Gültigkeit des vorherigen Outputs gestellt werden, ergänzt durch Hinweise auf relevante Fachartikel oder andere Quellen, um die Verlässlichkeit der Modelle weiter zu steigern.

In naher Zukunft, so Hsu, dürften hybride Mensch-KI-Kollaborationen zum Standard in Mathematik, Physik und anderen formal geprägten Wissenschaften werden. Mit wachsender Präzision, besserem Kontextverständnis und stärkerer Kontrolle über Symbole könnten große Sprachmodelle zunehmend wie "autonome Forschungsagenten" agieren – also in der Lage sein, neue Vermutungen aufzustellen, Ableitungen zu überprüfen und sogar wissenschaftliche Manuskripte zu verfassen, die der fachlichen Begutachtung standhalten.

Anzeige
DEC_D_Incontent-2

"Richtig eingesetzt, verspricht diese Zusammenarbeit eine beschleunigte Wissensentwicklung, bei der menschliche Intuition und maschinelles Schlussfolgern gemeinsam das Verständnis der Naturgesetze vorantreiben", schreibt Hsu.

Automatisierung der Wissenschaft

Unternehmen wie OpenAI verfolgen das Ziel einer immer stärkeren KI-gestützten Automatisierung der Wissenschaft. OpenAI hat angekündigt, bis 2028 autonome Forschungsagenten entwickeln zu wollen. Dabei geht es nicht nur um wissenschaftlichen Fortschritt, sondern auch um wirtschaftliches Potenzial: Wenn solche Agenten entscheidende Durchbrüche etwa in der Medizin erzielen, könnten daraus erhebliche Vorteile für Forschungseinrichtungen, Unternehmen und ganze Volkswirtschaften entstehen.

Es gibt bereits erste Hinweise, dass KI wissenschaftliche Arbeit beschleunigt oder neue Erkenntnisse ermöglicht. Der Mathematiker Terence Tao etwa hat mehrfach betont, dass KI ihm bei verschiedenen Aufgaben mehrere Stunden Arbeit erspart habe – zum Beispiel bei der Überprüfung eigener Annahmen oder durch automatisierte Programmvorschläge. Dabei sieht er aktuelle Sprachmodelle eher als mittelmäßige, aber brauchbare Assistenten, nicht als eigenständige Forscher.

Auch der OpenAI-Forscher Sebastien Bubeck berichtet von einem konkreten Fall: GPT-5 habe für ihn eine komplexe mathematische Aufgabe übernommen, den Lösungsweg entworfen, eine Simulation zur Überprüfung durchgeführt und schließlich einen vollständigen Beweis geschrieben. Für diese Aufgabe hätte Bubeck nach eigenen Angaben etwa einen Monat benötigt – GPT-5 erledigte sie an einem Nachmittag. Er bezeichnete dies als die „bisher beeindruckendste“ Leistung eines großen Sprachmodells.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.