Inhalt
summary Zusammenfassung

Sind Open-Source-KI-Modelle gefährlicher als geschlossene Modelle wie GPT-4? Eine neue Studie verneint dies und gibt Empfehlungen für die Politik.

Open Foundation Models (OFM) bieten bedeutende Vorteile, indem sie Wettbewerb fördern, Innovationen beschleunigen und Machtverteilung verbessern, so der Schluss einer Studie des Stanford Institute for Human-Centered Artificial Intelligence. In der Studie untersuchten die Autoren die Auswirkungen von OFMs auf Gesellschaft und Politik, verglichen mögliche Risiken mit denen geschlossener Modelle und geben Empfehlungen an die Politik.

Geschlossene und offene Modelle sind in unterschiedlichem Ausmaß vorhanden. | Bild: HAI Stanford

Zu den untersuchten Risiken von Open Foundation Models gehören Desinformation, Biorisiken, Cybersicherheit, Spear-Phishing, nicht einvernehmliche intime Bilder (NCII) und Bilder von Kindesmissbrauch (CSAM). Die Studie kommt zu dem Schluss, dass es derzeit nur begrenzte Belege für das marginale Risiko von OFMs im Vergleich zu geschlossenen Modellen oder bestehenden Technologien gibt.

Dort, wo sie besser dokumentiert sind, wie im Fall von NCII und CSAM, seien Vorschläge, die Verbreitung von OFMs durch die Lizenzierung rechenintensiver Modelle einzuschränken, unangemessen, da die Text-Bild-Modelle, die diese Schäden verursachen, wesentlich weniger Ressourcen zum Trainieren benötigen. Bestehende Sicherheitsmechanismen bei geschlossenen Modellen seien zudem ebenfalls anfällig. Die Autoren betonen jedoch, dass weitere Forschung notwendig ist, um die Risiken besser einschätzen zu können.

Anzeige
Anzeige

Warnung vor Überregulierung für Open-Source-Modelle

Gleichzeitig warnen sie davor, dass einige politische Vorschläge, wie die Haftung für Schäden durch nachgelagerte Nutzung oder strenge Anforderungen an die Herkunft von Inhalten, das Ökosystem der OFMs unverhältnismäßig stark beeinträchtigen könnten. Daher sollten politische Entscheidungsträger bei der Umsetzung solcher Maßnahmen Vorsicht walten lassen und eine angemessene Konsultation mit OFM-Entwicklern durchführen.

Laut dem Team sind die wichtigsten Erkenntnisse:

  • OFMs bieten erhebliche Vorteile, indem sie der Marktkonzentration entgegenwirken, Innovationen fördern und die Transparenz verbessern.
  • Einige politische Vorschläge zielen darauf ab, OFMs einzuschränken. Die entscheidende Frage ist das marginale Risiko offener Stiftungsmodelle im Vergleich zu (a) geschlossenen Modellen oder (b) bestehenden Technologien, aber die derzeitige Evidenz für dieses marginale Risiko ist recht begrenzt.
  • Einige Interventionen zielen besser auf Stellen ab, die der Ebene des OFMs nachgelagert sind - also etwa auf Ebene einer Anwendung und nicht auf Modellebene.
  • Einige aktuelle politische Vorschläge (z.B. Haftung für nachgeschaltete Schäden, Lizenzierung) könnten den Entwicklern offener Basismodelle unverhältnismäßig großen Schaden zufügen.
  • Politische Entscheidungsträger sollten mögliche unbeabsichtigte Folgen der KI-Regulierung für das dynamische Innovationsökosystem rund um offene Basismodelle explizit berücksichtigen.

Metas KI-Chef Yann LeCun bezeichnete die Studie auf LinkedIn als einen "Haufen Nägel im Sarg der Idee, dass Open-Source-KI-Modelle gefährlicher sind als geschlossene". Damit zielt er auch auf OpenAI ab, das bereits mit GPT-2 begonnen hatte, seine Modelle zunächst nur eingeschränkt und schließlich gar nicht mehr zu veröffentlichen. "Seit der Veröffentlichung von Llama-2 hat es eine Explosion von Anwendungen gegeben, die auf Open-Source-LLMs basieren, und keines der von den Untergangspropheten der KI vorhergesagten Katastrophenszenarien".

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Eine Studie des Stanford Institute for Human-Centered Artificial Intelligence stellt fest, dass Open Foundation Models (OFM) Vorteile bieten, indem sie Wettbewerb fördern, Innovationen beschleunigen und Machtverteilung verbessern.
  • Die Studie untersucht Risiken von OFMs wie Desinformation und Cybersicherheit, kommt aber zu dem Schluss, dass es derzeit nur begrenzte Belege für das Risiko von OFMs im Vergleich zu geschlossenen Modellen gibt.
  • Die Autoren warnen vor Überregulierung von Open-Source-Modellen und empfehlen politischen Entscheidungsträgern, mögliche unbeabsichtigte Folgen der KI-Regulierung für das Innovationsökosystem rund um OFMs zu berücksichtigen.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!