KI und Gesellschaft

Metas LLaMA-Leak zeigt, dass ein sicherer KI-Rollout eher Wunschtraum ist

Matthias Bastian
Ein weißes Lama rennt auf einer staubigen Straße in die Freiheit.

Midjourney prompted by THE DECODER

Technologiekonzerne und Politik werden nicht müde zu betonen, dass Künstliche Intelligenz aufgrund ihrer weitreichenden Auswirkungen besonders sicher und verantwortungsvoll eingesetzt werden muss. Doch das sind Lippenbekenntnisse, wenn sich die Technologie auf andere Weise ihren Weg in die Gesellschaft bahnt. Jüngstes Beispiel ist der Meta-Sprachmodell-Leak.

Im Februar 2019 stellte OpenAI das große Sprachmodell GPT-2 vor und kündigte an, es wegen des hohen Missbrauchsrisikos nur schrittweise veröffentlichen zu wollen. Es sei zu gefährlich, das Modell unkontrolliert in die Hände vieler Menschen zu geben, die damit etwa massenhaft Falschnachrichten generieren könnten.

Nun mag OpenAI mit dieser These recht und die bisherigen Rollouts der eigenen Technologie erfolgreich gesteuert haben. Das große Sprachmodell GPT-3 und ChatGPT sind nur über Programmierschnittstelle und Web-Interface zugänglich, nicht direkt.

So kann OpenAI die Anwendungen kontrollieren und unter anderem Filter gegen etwa gewalthaltige Inhalte setzen. Wer ChatGPT nutzt, kennt die zahlreichen Disclaimer.

Metas Sprachmodell LLaMA bei 4Chan geleakt

Ziemlich genau vier Jahre nach den GPT-2 (!) Bedenken von OpenAI ist jedoch mit Metas LLaMA ein Sprachmodell geleakt, das laut wissenschaftlichen Benchmarks das mächtige GPT-3 Sprachmodell von OpenAI erreicht und teilweise übertrifft, obwohl es kompakter und performanter ist. LLaMA soll sogar an Googles übermächtiges PaLM-Modell heranreichen, das bisher auch aus Sicherheitsgründen unveröffentlicht blieb.

Der LLaMA-Leak soll ausgerechnet über das berüchtigte Onlineforum 4chan erfolgt sein, eine Internet-Brutstätte für Hate Speech, Sexismus und Verschwörungstheorien, sozusagen das Gegenteil dessen, wofür Tech-Firmen ihre Sprachmodelle zur Verfügung stellen wollen.

Allerdings ist der Leak an sich wohl nicht die große Story. Meta, so viele Stimmen auf Reddit, habe den Zugang zu LLaMA ohnehin ohne große Rückfragen freigegeben.

Außerdem gibt es zahlreiche Bestrebungen, große und leistungsfähige Sprachmodelle als Open Source zur Verfügung zu stellen, auch wenn diese noch nicht das Niveau kommerzieller Produkte erreichen.

Nach dem LLaMA-Leak wird sich jedoch zeigen, ob sich die Befürchtungen von OpenAI bezüglich des Missbrauchs großer Sprachmodelle bewahrheiten. Die Frage ist, ob wir in der Lage sein werden, diesen Missbrauch zu erkennen - oder ob wir nur die Folgen zu spüren bekommen.

Die Hardware-Hürde für den Einsatz des größten und leistungsstärksten LLaMA-Modells ist jedenfalls hoch und die Kosten für den Hobby-Hacker von nebenan nicht tragbar. Organisationen könnten den Betrieb aber finanzieren.

Bekenntnisse zu verantwortungsvollem KI-Einsatz - was bringt’s?

Natürlich sichern sich OpenAI, Google und Co. mit ihren Bekenntnissen zum verantwortungsvollen Umgang mit KI in erster Linie ihre "licence to operate", also die gesellschaftliche Akzeptanz ihrer Existenz.

Aber man darf den Unternehmen und Konzernen, den Menschen, die dort arbeiten, zumindest zutrauen, dass sie ihre gesellschaftliche Rolle ernst nehmen und sich aufrichtig um eine verantwortungsvolle Verbreitung der KI-Technologie bemühen.

Nur, diese Frage muss man sich spätestens nach dem LLaMA-Leak stellen: Macht das einen großen Unterschied? Es scheint, dass die Technologie, wenn sie erst einmal da ist, ihren Weg in die Freiheit findet - und mit ihr alle potenziellen Risiken.

Der LLaMA-Leak ist ein Beispiel dafür. Das Trainieren und Veröffentlichen großer Bildmodelle wie Stable Diffusion, mit all den offenen Urheberrechtsfragen, oder die Verbreitung der Deepfake-Technologie, die auch für politische Manipulation oder Frauenfeindlichkeit eingesetzt wird, sind weitere Beispiele.

Natürlich wissen wir nicht, was noch kommt und mit KI möglich sein wird. Vielleicht befinden wir uns an der Spitze des KI-Höhenfluges - oder wir sehen nur die Spitze des Eisbergs. Deshalb müssen Unternehmen weiterhin über KI-Sicherheit und -Verantwortung nachdenken und planen.

Wer allerdings zum jetzigen Zeitpunkt feststellen möchte, dass die verantwortungsvolle Einführung von KI bereits gescheitert ist, hätte gute Argumente für diese Position.