Inhalt
summary Zusammenfassung

Eine internationale Gruppe von Wissenschaftlern hat sich für verantwortungsvolle Praktiken beim KI-gestützten Proteindesign ausgesprochen, um die Entwicklung von Biowaffen zu verhindern.

Die Gruppe veröffentlichte eine Erklärung, in der sie das enorme Potenzial der KI-Technologie hervorhebt, das von schnelleren Reaktionen auf Infektionskrankheiten bis hin zur Energiegewinnung reicht. Gleichzeitig warnen die Unterzeichner vor dem Missbrauchspotenzial, das biologische Giftstoffe und Biowaffen einschließt.

Die derzeit 131 Unterzeichner und Unterzeichnerinnen, darunter Nobelpreisträgerin Frances Arnold und Turing-Preisträger Yann LeCun, fordern ein proaktives Risikomanagement, um möglichen Gefahren durch Missbrauch vorzubeugen.

Die Gruppe verpflichtet sich, Forschung ausschließlich zum Wohle der Gesellschaft zu betreiben und gefährliche Praktiken zu vermeiden. Ebenso sollen DNA-Synthesedienstleistungen nur von Anbietern bezogen werden, die standardisierte Biosicherheitsprüfungen durchführen. Auch die kontinuierliche Evaluierung von KI-Software und die Identifizierung von Sicherheitsrisiken sind Teil der Selbstverpflichtung.

Anzeige
Anzeige

Die Unterzeichner betonen die Bedeutung von Offenheit und wissenschaftlicher Freiheit, erkennen aber auch die Notwendigkeit an, den Zugang zu KI-Systemen zu beschränken, wenn diese ungelöste Risiken bergen. Die Technologie soll durch internationale Zusammenarbeit und integrative Forschungsansätze breiten Nutzen bringen.

Zugang zu Ausrüstung ist das größere Risiko

Trotz der Befürchtungen argumentieren die Wissenschaftler, dass das eigentliche Risiko nicht in der KI selbst liegt, sondern in der Ausrüstung zur Herstellung neuen genetischen Materials, das für die Entwicklung von Biowaffen benötigt wird.

"Da kein rechnerisch entworfenes Protein in der realen Welt Schaden anrichten kann, wenn es nicht physisch hergestellt wird, stellt die Herstellung synthetischer DNA einen wichtigen Kontrollpunkt für die Biosicherheit im Bereich des rechnerischen Proteindesigns dar", schreiben die Forschenden.

Die Konvention fordert Sicherheitsmaßnahmen für DNA-Produktionsanlagen, um zu verhindern, dass sie mit schädlichen Materialien verwendet werden, sowie Sicherheits- und Zuverlässigkeitsprüfungen für neue KI-Modelle vor ihrer Freigabe.

Die Wissenschaftler plädieren nicht für eine Beschränkung dieser Technologien, sondern für einen freien Zugang, damit die wissenschaftliche Gemeinschaft sie erforschen und dazu beitragen kann. Die Gruppe verpflichtet sich außerdem, die Prinzipien und Verpflichtungen regelmäßig zu überprüfen und neue zu entwickeln.

Empfehlung

Die Erklärung wurde im Anschluss an eine Konferenz am 25. Oktober 2023 am Institut für Protein-Design der Universität Washington von Vertretern der Wissenschaft, des Privatsektors und staatlicher Organisationen verfasst.

Eine kürzlich veröffentlichte OpenAI-Studie hat ergeben, dass große Sprachmodelle wie GPT-4 die Entwicklung von Biowaffen nur geringfügig erleichtern, da die benötigten Informationen auch ohne KI relativ leicht im Internet zu finden sind. OpenAI hat ein Frühwarnsystem entwickelt, um potenziellen Missbrauch zu identifizieren.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine internationale Gruppe von Wissenschaftlern, darunter Nobelpreisträgerin Frances Arnold und Turing-Preisträger Yann LeCun, fordert verantwortungsvolles KI-gestütztes Proteindesign, um die Entwicklung von Biowaffen zu verhindern und proaktives Risikomanagement einzuführen.
  • Die Gruppe verpflichtet sich, Forschung zum Wohle der Gesellschaft zu betreiben, gefährliche Praktiken zu vermeiden, DNA-Synthesedienstleistungen von Anbietern mit standardisierten Biosicherheitsprüfungen zu nutzen und KI-Software kontinuierlich auf Sicherheitsrisiken zu evaluieren.
  • Die Wissenschaftler betonen, dass das größere Risiko nicht in der KI selbst liegt, sondern in der Ausrüstung zur Herstellung neuen genetischen Materials. Daher fordern sie Sicherheitsmaßnahmen für DNA-Produktionsanlagen sowie Sicherheits- und Zuverlässigkeitsprüfungen für neue KI-Modelle.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!