Mit zunehmender Verbreitung generativer KI erhält auch die Wissenschaft ihren Anteil an ChatGPT-Texten. Verleger und Forscher versuchen, Strategien und einen Weg in eine Zukunft zu entwickeln, in der KI-gestütztes Arbeiten alltäglich sein wird.
Im August 2022 veröffentlichte die Zeitschrift Resources Policy eine Studie über E-Commerce und fossile Brennstoffe, die einen Satz enthielt, der für KI-Chatbots wie ChatGPT charakteristisch ist: "Bitte beachten Sie, dass ich als KI-Sprachmodell nicht in der Lage bin, spezifische Tabellen zu erstellen oder Tests durchzuführen, daher sollten die tatsächlichen Ergebnisse in die Tabelle aufgenommen werden.
Es wird niemanden überraschen, dass dieser Satz die wissenschaftliche Gemeinschaft auf die Idee brachte, dass KI beim Schreiben geholfen haben könnte. Die Autoren haben das nicht offengelegt, der Wissenschaftsverlag Elsevier untersucht den Vorfall.
Große Verlage und Zeitschriften wie Science, Nature und Elsevier haben aus Sorge um ihre Glaubwürdigkeit schnell neue KI-Richtlinien eingeführt. Diese Richtlinien verlangen in der Regel die Offenlegung des Einsatzes von KI und verbieten die Nennung von KI als Autor. Es ist jedoch äußerst schwierig, von KI geschriebene Texte zu erkennen. Zuverlässige Methoden gibt es nicht.
KI könnte Wissenschaftlern helfen, wissenschaftliche Texte zu verbessern
Doch es gibt nicht nur schlechte Nachrichten: Experten zufolge könnten KI-Tools Nicht-Muttersprachlern helfen, die Qualität ihrer wissenschaftlichen Texte zu verbessern und ihre Chancen auf Veröffentlichung zu erhöhen. Sie könnten auch Forschern helfen, besser und klarer zu schreiben.
In einem kürzlich durchgeführten Experiment haben Forscher mithilfe von ChatGPT in nur einer Stunde einen akzeptablen Aufsatz verfasst. Generative KI verfälscht jedoch häufig Fakten und Referenzen, verzerrt wiederholt Daten und kann zur Verschleierung von Plagiaten eingesetzt werden.
Generative KI könnte es sogenannten "Paper-Fabriken" ermöglichen, minderwertige KI-gestützte Forschungsarbeiten an Wissenschaftler zu verkaufen, die unter Zeitdruck und der Devise "publiziere oder verschwinde" stehen. Die Verbreitung solcher Studien könnte die Forschungsliteratur verunreinigen und von seriöser Forschung ablenken.
Multimodale Modelle werden den Einsatz von KI voraussichtlich verstärken
Mit Open-Source-Modellen wie Stable Diffusion und generativen KI-Tools in Photoshop wird auch die Manipulation oder völlige Fälschung von Bildern zu einem Problem. Die Zeitschrift Nature hat daher KI-Bilder und -Videos verboten.
Der Einsatz solcher Werkzeuge dürfte rasch zunehmen, insbesondere mit multimodalen Modellen wie Gemini von Google Deepmind am Horizont. Wenn sich die Gerüchte bewahrheiten, könnte es auch in der Lage sein, Diagramme und Tabellen zu analysieren, was die Bearbeitung ganzer Artikel einschließlich des Zusatzmaterials erleichtern würde.
Möglicherweise werden auch die Verlage selbst zunehmend solche Tools integrieren. Es wird eine Frage von Versuch und Irrtum sein, die richtige Balance zwischen Politik und Technologie zu finden.