Inhalt
summary Zusammenfassung

Technologiekonzerne und Politik werden nicht müde zu betonen, dass Künstliche Intelligenz aufgrund ihrer weitreichenden Auswirkungen besonders sicher und verantwortungsvoll eingesetzt werden muss. Doch das sind Lippenbekenntnisse, wenn sich die Technologie auf andere Weise ihren Weg in die Gesellschaft bahnt. Jüngstes Beispiel ist der Meta-Sprachmodell-Leak.

Im Februar 2019 stellte OpenAI das große Sprachmodell GPT-2 vor und kündigte an, es wegen des hohen Missbrauchsrisikos nur schrittweise veröffentlichen zu wollen. Es sei zu gefährlich, das Modell unkontrolliert in die Hände vieler Menschen zu geben, die damit etwa massenhaft Falschnachrichten generieren könnten.

Nun mag OpenAI mit dieser These recht und die bisherigen Rollouts der eigenen Technologie erfolgreich gesteuert haben. Das große Sprachmodell GPT-3 und ChatGPT sind nur über Programmierschnittstelle und Web-Interface zugänglich, nicht direkt.

So kann OpenAI die Anwendungen kontrollieren und unter anderem Filter gegen etwa gewalthaltige Inhalte setzen. Wer ChatGPT nutzt, kennt die zahlreichen Disclaimer.

Anzeige
Anzeige

Metas Sprachmodell LLaMA bei 4Chan geleakt

Ziemlich genau vier Jahre nach den GPT-2 (!) Bedenken von OpenAI ist jedoch mit Metas LLaMA ein Sprachmodell geleakt, das laut wissenschaftlichen Benchmarks das mächtige GPT-3 Sprachmodell von OpenAI erreicht und teilweise übertrifft, obwohl es kompakter und performanter ist. LLaMA soll sogar an Googles übermächtiges PaLM-Modell heranreichen, das bisher auch aus Sicherheitsgründen unveröffentlicht blieb.

Der LLaMA-Leak soll ausgerechnet über das berüchtigte Onlineforum 4chan erfolgt sein, eine Internet-Brutstätte für Hate Speech, Sexismus und Verschwörungstheorien, sozusagen das Gegenteil dessen, wofür Tech-Firmen ihre Sprachmodelle zur Verfügung stellen wollen.

Allerdings ist der Leak an sich wohl nicht die große Story. Meta, so viele Stimmen auf Reddit, habe den Zugang zu LLaMA ohnehin ohne große Rückfragen freigegeben.

Außerdem gibt es zahlreiche Bestrebungen, große und leistungsfähige Sprachmodelle als Open Source zur Verfügung zu stellen, auch wenn diese noch nicht das Niveau kommerzieller Produkte erreichen.

Nach dem LLaMA-Leak wird sich jedoch zeigen, ob sich die Befürchtungen von OpenAI bezüglich des Missbrauchs großer Sprachmodelle bewahrheiten. Die Frage ist, ob wir in der Lage sein werden, diesen Missbrauch zu erkennen - oder ob wir nur die Folgen zu spüren bekommen.

Empfehlung

Die Hardware-Hürde für den Einsatz des größten und leistungsstärksten LLaMA-Modells ist jedenfalls hoch und die Kosten für den Hobby-Hacker von nebenan nicht tragbar. Organisationen könnten den Betrieb aber finanzieren.

Bekenntnisse zu verantwortungsvollem KI-Einsatz - was bringt’s?

Natürlich sichern sich OpenAI, Google und Co. mit ihren Bekenntnissen zum verantwortungsvollen Umgang mit KI in erster Linie ihre "licence to operate", also die gesellschaftliche Akzeptanz ihrer Existenz.

Aber man darf den Unternehmen und Konzernen, den Menschen, die dort arbeiten, zumindest zutrauen, dass sie ihre gesellschaftliche Rolle ernst nehmen und sich aufrichtig um eine verantwortungsvolle Verbreitung der KI-Technologie bemühen.

Nur, diese Frage muss man sich spätestens nach dem LLaMA-Leak stellen: Macht das einen großen Unterschied? Es scheint, dass die Technologie, wenn sie erst einmal da ist, ihren Weg in die Freiheit findet - und mit ihr alle potenziellen Risiken.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Der LLaMA-Leak ist ein Beispiel dafür. Das Trainieren und Veröffentlichen großer Bildmodelle wie Stable Diffusion, mit all den offenen Urheberrechtsfragen, oder die Verbreitung der Deepfake-Technologie, die auch für politische Manipulation oder Frauenfeindlichkeit eingesetzt wird, sind weitere Beispiele.

Natürlich wissen wir nicht, was noch kommt und mit KI möglich sein wird. Vielleicht befinden wir uns an der Spitze des KI-Höhenfluges - oder wir sehen nur die Spitze des Eisbergs. Deshalb müssen Unternehmen weiterhin über KI-Sicherheit und -Verantwortung nachdenken und planen.

Wer allerdings zum jetzigen Zeitpunkt feststellen möchte, dass die verantwortungsvolle Einführung von KI bereits gescheitert ist, hätte gute Argumente für diese Position.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta hat kürzlich mit LLaMA ein sehr leistungsfähiges Sprachmodell für die Forschungsgemeinschaft vorgestellt.
  • Über das Internetforum 4Chan wurde das Sprachmodell samt Gewichtungen jedoch geleakt. Es könnte also prinzipiell unbeaufsichtigt für alle denkbaren Zwecke eingesetzt werden.
  • Neben Stable Diffusion und Deepfakes zeigt sich, dass der viel beschworene "sichere Rollout" von KI wohl ein Wunschtraum bleibt.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!