Anzeige
Skip to content

Google ist für und gegen Open-Source-KI - es kommt darauf an

Image description
Google DeepMind

Google äußert sich in einer Stellungnahme an die US-amerikanische National Telecommunications and Information Administration (NTIA) zu Risiken und Vorteilen von Open-Source-KI-Modellen und fordert einen verantwortungsvollen Umgang damit.

Die National Telecommunications and Information Administration (NTIA) der US-Regierung hat einen öffentlichen Konsultationsprozess zu grundlegenden KI-Modellen mit frei verfügbaren Gewichten gestartet.

Auch Google meldet sich, wie zuvor Meta, zu Wort und betont, dass es sich bei den Begriffen "offen" und "frei verfügbar" eher um ein Spektrum als um eine binäre Entscheidung handele, die nur "pro" oder "contra" Open Source sehe.

Der Zugang zu KI-Systemen lasse sich besser als verschiedene Stufen der Offenheit beschreiben, wobei das Risikoprofil von der gewählten Form der Veröffentlichung abhänge.

Anzeige
DEC_D_Incontent-1

Google bietet etwa seine "Gemma"-Modelle mit freien Parametergewichten an, schränkt die Nutzung aber durch Lizenzbestimmungen ein. Andere Firmen wie Meta stellen ihre Modelle zunächst nur ausgewählten Forschern zur Verfügung, bevor sie sie vollständig veröffentlichen.

Auch OpenAI rollt seine Open-Source-Software meist nur schrittweise aus. Allerdings dürften sich gerade böswillige Akteure wenig um mögliche Lizenzverletzungen scheren.

Open Source ist nicht umkehrbar

Google warnt dementsprechend, dass frei verfügbare Modelle schwer zu kontrollieren sind und das Risiko von Missbrauch erhöhen können. Sobald die Gewichte öffentlich sind, sei es kaum möglich, den Zugang zu beschränken. Auch könnten Schwachstellen leichter von Angreifern ausgenutzt werden.

Gleichzeitig betont Google die vielfältigen Vorteile offener KI-Modelle: Sie ermöglichen Innovationen, fördern den Wettbewerb und erleichtern den Zugang zu KI-Technologie, insbesondere in Schwellenländern. Offene Modelle dienen auch der Sicherheitsforschung, da Experten sie ausgiebig testen können. Meta argumentiert ähnlich.

Anzeige
DEC_D_Incontent-2

Um die Risiken zu mindern, empfiehlt Google strenge interne Prüfprozesse, ausführliche Tests auf potenzielle Missbrauchsmöglichkeiten und die Bereitstellung von Tools für eine sichere Nutzung.

Darüber hinaus plädiert das Unternehmen für eine enge Zusammenarbeit zwischen Regierung, Industrie und Zivilgesellschaft, um gemeinsam Standards und Richtlinien zu entwickeln.

Laut Google sollte die NTIA Initiativen fördern, die einen verantwortungsvollen Zugang zu KI-Fähigkeiten unterstützen. Dazu gehören der Aufbau einer globalen Forschungsinfrastruktur für KI und Investitionen in die Sicherheit von Open-Source-Software-Ökosystemen, die viele KI-Anwendungen unterstützen. Eine ausgewogene Regulierung, die Innovation fördert und gleichzeitig Risiken minimiert, sei entscheidend.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: Google

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren