Publish or Perish 2.0: Wenn generative KI das wissenschaftliche Vertrauen zerstört
Die aktuelle Begutachtungsphase für die nächste große KI-Konferenz offenbart tiefe Risse im wissenschaftlichen Betrieb. Während Forschende von Elite-Universitäten KI-generierte Quellen erfinden, lassen frustrierte Autoren ihre Paper zurückziehen, weil manche Gutachter offenbar selbst nicht mehr lesen, sondern KI schreiben lassen.
Die Vorbereitungen für die kommende International Conference on Learning Representations (ICLR) 2026 gleichen in diesem Herbst weniger einem wissenschaftlichen Austausch als einem Offenbarungseid für das akademische Peer-Review-System, wie ein Thread auf Reddit zeigt. Dort verlinkte Artikel auf der Plattform OpenReview zeigen, wie generative KI das Vertrauen in die Forschung von beiden Seiten erodieren lässt: Autoren lassen KI halluzinieren, und Gutachter lassen KI ignorieren. Eine bereits 2024 veröffentlichte Studie liefert den passenden Kontext für diese Eskalation und zeigt, dass hinter solchen Exzessen oft mehr steckt als individuelle Faulheit – nämlich ein brutaler systemischer Druck.
Ein Beispiel für das Versagen auf Autorenseite liefert das Paper "BrainMIND" von Forschern des Georgia Institute of Technology und der renommierten Tsinghua Universität. Das Versprechen einer interpretierbaren Kartierung von Gehirnaktivitäten wurde durch die Entdeckung zahlreicher halluzinierter Quellen untergraben. Die Referenzliste enthielt komplett erfundene Titel und führte generische Platzhalter-Namen wie "Jane Doe" als Ko-Autoren auf. Ein Reviewer kommentierte die offensichtliche Nutzung von Sprachmodellen mit einer "Strong Reject"-Empfehlung, woraufhin die Autoren das Papier und die Referenzen überarbeitete. Es kam zu weiteren Fehlern und die Autoren entschlossen sich, das Papier zurückzuziehen.
Auf der Gegenseite demonstriert der Fall des Papers "Efficient Fine‑Tuning of Quantized Models via Adaptive Rank and Bitwidth", wie das Misstrauen gegenüber Gutachtern wächst. Die Autoren zogen ihre Einreichung unter Protest zurück, nachdem sie vier Ablehnungen erhalten hatten. Der Vorwurf: Die Reviewer hätten das Paper nicht gelesen und KI-Tools genutzt, um Kritikpunkte zu generieren. So wurden angeblich fehlende Experimente (z.B. GSM8K-Benchmarks) oder fehlende Spezifikationen bemängelt, die laut den Autoren im Text und Anhang explizit vorhanden waren. In ihrer Abschiedsnachricht bezeichneten die Autoren das Verhalten als "flagrante Schändung der heiligen Pflicht eines Gutachters" und warfen den Reviewern vor, ihre Arbeit durch KI-Faulheit zu entwerten.
In der Community wird dabei weniger der Einsatz von KI an sich verteufelt, sondern vielmehr der fahrlässige Umgang damit. Das eigentliche Problem ist nicht die Nutzung von LLMs zur sprachlichen Glättung – eine Praxis, die gerade für Nicht-Muttersprachler hilfreich sein kann –, sondern das blinde Vertrauen in den Output. "Ich hoffe, die Autoren nehmen die ICLR ernst und vermeiden KI-generierte Zitate", schreibt ein Reviewer. Die Kritik zielt also auf die fehlende menschliche Kontrolle: Wer KI halluzinieren lässt, ohne zu prüfen, hat seine Sorgfaltspflicht verletzt.
Systemischer Druck: "Wo das Wasser zu sauber ist, gibt es keine Fische"
Diese Vorfälle sind Symptome tieferliegender struktureller Probleme, die die eingangs erwähnte Studie im Journal Research Ethics aus dem letzten Jahr detailliert aufschlüsselt. Am Beispiel dreier anonymisierter chinesischer Elite-Universitäten analysieren die Forscher Xinqu Zhang und Peng Wang, wie staatliche Initiativen wie der "Double First-Class"-Plan eine toxische Anreizstruktur schaffen.
Die Studie identifiziert den Mechanismus des cengceng jiama als zentralen Treiber für Fehlverhalten. Dieser Begriff beschreibt eine stufenweise Erhöhung des Drucks innerhalb der bürokratischen Hierarchie. Während die Zentralregierung vage Ziele wie "Weltklasse-Status" vorgibt, interpretieren Universitätsleitungen dies als strikte Ranking-Vorgaben. Diese Ziele werden dann an die Fakultäten weitergereicht, die wiederum aus Angst vor Versagen die Anforderungen noch einmal verschärfen. Was auf Universitätsebene als "Förderung" von Publikationen beginnt, mutiert auf Fakultätsebene oft zu harten Quoten für Veröffentlichungen in SCI-Journalen.
Dieser Druck führt laut Zhang und Wang zu einer "Entkopplung von Zielen und Mitteln" (Goal-Means Decoupling). Um die unrealistischen Produktivitätsziele zu erreichen, entkoppeln Forscher ihre tägliche Arbeit von ethischen Normen. Die Studie dokumentiert Fälle, in denen Nachwuchsforscher offen zugaben, "keine Wahl" gehabt zu haben, als Daten zu fälschen oder Ghostwriting-Dienste zu nutzen, um ihre Anstellung zu sichern ("Publish or Perish"). Die Studie zitiert Daten des Verlags Hindawi, der 2023 mehr als 9.600 Paper zurückzog, wovon etwa 8.200 Co-Autoren aus China hatte.
Besonders alarmierend ist die Rolle der Institutionen selbst: Um die externe Legitimität und den Aufstieg in Rankings nicht zu gefährden, tolerieren Führungskräfte das Fehlverhalten stillschweigend, solange die Ergebnisse stimmen. Ein Dekan wird in der Studie mit dem chinesischen Sprichwort zitiert: "Wo das Wasser zu sauber ist, gibt es keine Fische." Man dürfe bei der Bestrafung von Fehlverhalten nicht zu streng sein, da dies die Forschungseffizienz beeinträchtige. Die Strategie lautet oft: Große Probleme klein machen, kleine Probleme ignorieren – es sei denn, ein Skandal wird öffentlich.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.