Google äußert sich in einer Stellungnahme an die US-amerikanische National Telecommunications and Information Administration (NTIA) zu Risiken und Vorteilen von Open-Source-KI-Modellen und fordert einen verantwortungsvollen Umgang damit.
Die National Telecommunications and Information Administration (NTIA) der US-Regierung hat einen öffentlichen Konsultationsprozess zu grundlegenden KI-Modellen mit frei verfügbaren Gewichten gestartet.
Auch Google meldet sich, wie zuvor Meta, zu Wort und betont, dass es sich bei den Begriffen "offen" und "frei verfügbar" eher um ein Spektrum als um eine binäre Entscheidung handele, die nur "pro" oder "contra" Open Source sehe.
Der Zugang zu KI-Systemen lasse sich besser als verschiedene Stufen der Offenheit beschreiben, wobei das Risikoprofil von der gewählten Form der Veröffentlichung abhänge.
Google bietet etwa seine "Gemma"-Modelle mit freien Parametergewichten an, schränkt die Nutzung aber durch Lizenzbestimmungen ein. Andere Firmen wie Meta stellen ihre Modelle zunächst nur ausgewählten Forschern zur Verfügung, bevor sie sie vollständig veröffentlichen.
Auch OpenAI rollt seine Open-Source-Software meist nur schrittweise aus. Allerdings dürften sich gerade böswillige Akteure wenig um mögliche Lizenzverletzungen scheren.
Open Source ist nicht umkehrbar
Google warnt dementsprechend, dass frei verfügbare Modelle schwer zu kontrollieren sind und das Risiko von Missbrauch erhöhen können. Sobald die Gewichte öffentlich sind, sei es kaum möglich, den Zugang zu beschränken. Auch könnten Schwachstellen leichter von Angreifern ausgenutzt werden.
Gleichzeitig betont Google die vielfältigen Vorteile offener KI-Modelle: Sie ermöglichen Innovationen, fördern den Wettbewerb und erleichtern den Zugang zu KI-Technologie, insbesondere in Schwellenländern. Offene Modelle dienen auch der Sicherheitsforschung, da Experten sie ausgiebig testen können. Meta argumentiert ähnlich.
Um die Risiken zu mindern, empfiehlt Google strenge interne Prüfprozesse, ausführliche Tests auf potenzielle Missbrauchsmöglichkeiten und die Bereitstellung von Tools für eine sichere Nutzung.
Darüber hinaus plädiert das Unternehmen für eine enge Zusammenarbeit zwischen Regierung, Industrie und Zivilgesellschaft, um gemeinsam Standards und Richtlinien zu entwickeln.
Laut Google sollte die NTIA Initiativen fördern, die einen verantwortungsvollen Zugang zu KI-Fähigkeiten unterstützen. Dazu gehören der Aufbau einer globalen Forschungsinfrastruktur für KI und Investitionen in die Sicherheit von Open-Source-Software-Ökosystemen, die viele KI-Anwendungen unterstützen. Eine ausgewogene Regulierung, die Innovation fördert und gleichzeitig Risiken minimiert, sei entscheidend.