Ein Gastbeitrag von David Heslop und Joel Keep
Chatbots werden niemandem helfen, Massenvernichtungswaffen herzustellen, andere KI-Systeme vielleicht schon
Während Chatbots wie ChatGPT und Claude die Aufmerksamkeit der Öffentlichkeit auf sich ziehen, warnen unsere Gastautoren vor dem möglichen Missbrauch spezialisierterer KI-Systeme in den Biowissenschaften. Der doppelte Verwendungszweck dieser Tools stellt eine einzigartige Herausforderung für Regulierungsbehörden und politische Entscheidungsträger dar.
In den vergangenen zwei Jahren wurde viel über die "Verheißungen und Gefahren" von KI geschrieben. Einige behaupteten, dass KI-Systeme bei der Konstruktion von chemischen oder biologischen Waffen helfen könnten.
Wie realistisch sind diese Befürchtungen? Als Forscher auf dem Gebiet des Bioterrorismus und der Gesundheitsintelligenz haben wir versucht, die echten Risiken vom Online-Hype zu unterscheiden.
Die genauen Auswirkungen auf "chemisch-biologische" Waffen sind noch ungewiss. Es ist jedoch klar, dass die Vorschriften nicht mit den technologischen Entwicklungen Schritt halten.
Abschätzung der Risiken
Es ist nicht einfach, das Risiko eines KI-Modells zu bewerten. Es gibt keine einheitliche und allgemein anerkannte Methode.
Nehmen wir den Fall der großen Sprachmodelle (LLMs), den KI-Maschinen hinter Chatbots wie ChatGPT, Claude und Gemini.
Im September veröffentlichte OpenAI ein LLM namens o1 (Spitzname "Strawberry"). Bei seiner Veröffentlichung behaupteten die Entwickler:innen, das neue System habe ein "mittleres" Risiko, jemandem bei der Herstellung einer biologischen Waffe zu helfen.
Diese Einschätzung mag alarmierend klingen. Ein genauerer Blick auf die o1-Systemkarte offenbart jedoch eher triviale Sicherheitsrisiken.
Beispielsweise könnte das Modell einer ungeschulten Person helfen, sich schneller in einer öffentlichen Datenbank mit genetischen Informationen über Viren zurechtzufinden. Es ist unwahrscheinlich, dass eine solche Hilfe wesentliche Auswirkungen auf die biologische Sicherheit hat.
Dennoch wurde in den Medien schnell berichtet, dass das neue Modell einen "signifikanten Beitrag" zu den Risiken der Rüstung leiste.
Jenseits von Chatbots
Als die erste Welle von LLM-Chatbots Ende 2022 auf den Markt kam, gab es weit verbreitete Befürchtungen, dass diese Systeme ungeschulten Personen helfen könnten, eine Pandemie auszulösen.
Diese Chatbots basieren jedoch auf bereits vorhandenen Daten und werden wahrscheinlich nichts wirklich Neues hervorbringen. Sie könnten einem Bioterrorismus-Unternehmen helfen, einige Ideen zu entwickeln und eine erste Richtung vorzugeben, aber das war's dann auch schon.
Eher als Chatbots sind KI-Systeme mit Anwendungen in den Biowissenschaften von echter Bedeutung. Viele von ihnen, wie die AlphaFold-Serie, werden Forschenden bei der Bekämpfung von Krankheiten und der Suche nach neuen therapeutischen Mitteln helfen.
Einige Systeme können jedoch auch missbraucht werden. Jede KI, die der Wissenschaft wirklich nützt, ist wahrscheinlich ein zweischneidiges Schwert: eine Technologie, die der Menschheit großen Nutzen bringen kann, aber auch Risiken birgt.
KI-Systeme wie diese sind Paradebeispiele für die so genannte "dual-use research of concern", also "bedenkliche Forschung mit doppeltem Verwendungszweck".
Prionen und Pandemien
Das Problem der Dual-Use-Forschung ist an sich nicht neu. Diejenigen, die sich mit biologischer Sicherheit und der Nichtverbreitung von Kernwaffen befassen, machen sich schon lange Gedanken darüber. Viele Werkzeuge und Techniken der Chemie und der synthetischen Biologie könnten für böswillige Zwecke missbraucht werden.
Im Bereich der Proteinforschung beispielsweise besteht seit mehr als einem Jahrzehnt die Sorge, dass neue Computerplattformen bei der Synthese der potenziell tödlichen fehlgefalteten Proteine, die Prionen genannt werden, oder bei der Konstruktion neuartiger Toxinwaffen helfen könnten. Neue KI-Werkzeuge wie AlphaFold könnten dieses Szenario der Realität näher bringen.
Prionen und Toxine können für relativ kleine Gruppen von Menschen tödlich sein, aber keiner von ihnen kann eine Pandemie auslösen, die wirklich verheerend wäre. Bei der Erforschung des Bioterrorismus konzentrieren wir uns auf Erreger, die das Potenzial haben, eine Pandemie auszulösen.
In der Vergangenheit konzentrierte sich die Bioterrorismusforschung auf Yersinia pestis, das Bakterium, das die Pest verursacht, und auf das Variola-Virus, das die Pocken auslöst.
Die wichtigste Frage ist, ob die neuen KI-Systeme für eine ungeschulte Person oder Gruppe, die versucht, solche Erreger zu beschaffen oder von Grund auf neu zu entwickeln, einen spürbaren Unterschied machen.
Das wissen wir noch nicht.
Regeln zur Bewertung und Regulierung von KI-Systemen
Noch hat niemand eine endgültige Antwort auf die Frage, wie die neue Landschaft der KI-gesteuerten biologischen Waffen zu bewerten ist. Die am weitesten fortgeschrittene Planung stammt von der scheidenden US-Regierung unter Biden, die im Oktober 2023 eine Durchführungsverordnung zur KI-Entwicklung erlassen hat.
Eine zentrale Bestimmung der Verfügung beauftragt mehrere US-Behörden mit der Festlegung von Standards zur Bewertung der Auswirkungen neuer KI-Systeme auf die Verbreitung chemischer, biologischer, radiologischer oder nuklearer Waffen. Expert:innen fassen diese häufig unter dem Begriff "CBRN" zusammen, aber die neue Dynamik, die wir als CBRN+AI bezeichnen, ist noch ungewiss.
Mit der Durchführungsverordnung wurden auch neue Verfahren zur Regulierung der für die Gensynthese benötigten Hard- und Software eingeführt. Dabei handelt es sich um die Maschinerie, mit der die von einem KI-System erzeugten digitalen Ideen in die physische Realität des biologischen Lebens umgesetzt werden.
Das US-Energieministerium wird in Kürze einen Leitfaden zum Umgang mit biologischen Risiken veröffentlichen, die von neuen KI-Systemen ausgehen könnten. Dieser Leitfaden wird Aufschluss darüber geben, wie KI die Biosicherheit in den kommenden Jahren beeinflussen könnte.
Politischer Druck
Diese im Entstehen begriffene Regelung ist bereits unter politischen Druck geraten. Die neue Trump-Administration in den USA hat versprochen, Bidens Durchführungsverordnung zur KI aufzuheben, da sie auf "linksradikalen Ideen" beruhe. Diese Haltung beruht auf irrelevanten Streitigkeiten in der amerikanischen Identitätspolitik, die nichts mit der Biosicherheit zu tun haben.
Die Verordnung ist zwar unvollkommen, aber der beste Entwurf, um zu verstehen, wie KI die Verbreitung chemischer und biologischer Bedrohungen in den kommenden Jahren beeinflussen wird. Ihre Aufhebung würde den nationalen Interessen der USA und der globalen menschlichen Sicherheit im Allgemeinen einen großen Dienst erweisen.