Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Als Content-Moderator für eine große Social-Media-Plattform wurde mir schnell klar, in welcher Krise sich unser Informations-Ökosystem wirklich befindet. Ich sah aus nächster Nähe, wie die Algorithmen der Plattformen den Nutzern einen endlosen Müll vor die Nase setzen, den sie dann überfliegen, überspringen, wegwischen oder vorbeiscrollen, ohne sich groß Gedanken darüber zu machen. Und wer könnte ihnen das verdenken? Es gibt einfach zu viel da draußen.

Gleichzeitig beobachte ich, wie Journalist:innen und Faktenchecker - die erste Garde der Informationsintegrität - in der gesamten Nachrichten- und Technologiebranche entlassen werden, was die Krise nur noch verschärft. Wenn diese geschulten und vertrauenswürdigen Fachleute überhaupt ersetzt werden, dann oft durch undurchschaubare Blackbox-Automatisierung, wie bei MSN, das seine verbliebenen Journalisten im Jahr 2020 zugunsten von proprietärer KI entließ. Der Personalabbau mag zwar kurzfristig Geld sparen, hat aber einen hohen Preis für die Nutzer, die feststellen, dass ihr Informations-Ökosystem zunehmend verschmutzt wird, und die selbst entmutigt sind durch das Meer von Müll, durch das sie täglich schwimmen müssen.

Als ich das alles sah, hatte ich das Gefühl, etwas tun zu müssen, wenn auch nur im Kleinen. Deshalb habe ich eine Medienkompetenz-Initiative ins Leben gerufen, die ihresgleichen sucht: das Lost Art of Reading Project (kurz: LARP).

Die meisten Forschenden möchten es nicht zugeben, aber die Mehrheit der Internetnutzer schaltet bei Vorträgen automatisch ab, auch wenn sie noch so gut gemeint sind - selbst wenn sie eine tolle Infografik enthalten. Es reicht zum Beispiel nie aus, zu erklären, wie Fehlinformationen funktionieren. Es ändert sich nichts. Deshalb verfolgt LARP einen völlig anderen Ansatz, als man ihn normalerweise in diesem Bereich sieht: Wir bekämpfen Feuer mit Feuer.

Das Lost Art of Reading Project ist eine Initiative zur Förderung der Medienkompetenz, die KI-generierte Verschwörungstheorien erstellt, um die Bedeutung menschlicher Faktenprüfer und Journalisten in den Online-Medien hervorzuheben. Die Arbeit des Projekts wurde bereits von Reuters ausgezeichnet.

Eine Möglichkeit ist, dass wir selbst KI-Technologie einsetzen, um (harmlose) Verschwörungsinhalte zu erstellen. Diese Inhalte stellen wir dann zur Verfügung, um den Menschen zu zeigen, wie leicht es für Maschinen ist, scheinbar glaubwürdige Informationen zu produzieren, die in Wirklichkeit völlig falsch sind. Indem wir die Grenzen und Fallstricke der KI-Inhaltserstellung aufzeigen, hoffen wir, die Menschen zu mehr Skepsis gegenüber den Informationen zu ermutigen, denen sie online begegnen.

Unser Ziel ist es, die Neugier der Menschen zu wecken und ihre kritischen Fähigkeiten direkt in dem Moment zu aktivieren, in dem sie am meisten gebraucht werden. Wir wollen die Leser dazu bringen, langsamer zu werden und wirklich genau hinzuschauen, was ihnen präsentiert wird. Wir möchten bei den Lesern eine Art "Immunreaktion" auslösen, sodass sie sagen: "Schau mal, wie unecht das ist!" Die von uns erstellten KI-Inhalte werden zu einem Rätsel, bei dessen Lösung die Menschen ein gutes Gefühl haben, was die Hälfte des Reizes von Verschwörungsinhalten ausmacht - das haben wir erlebt.

Es liegt auf der Hand, dass der Aufstieg der KI ein zweischneidiges Schwert ist. Einerseits hat sie das Potenzial, die Art und Weise, wie wir Informationen erstellen und konsumieren, zu revolutionieren. Andererseits kann sie leicht missbraucht werden, um falsche Informationen und Verschwörungstheorien zu verbreiten, was verheerende Auswirkungen haben kann.

Journalist:innen und Faktenchecker:innen werden bald mehr gebraucht als je zuvor. Und jeder Internetnutzer muss selbst zum Faktenprüfer werden, nur um im Internet überleben zu können. Schlimmer noch: Wenn KI-Inhalte sich wirklich durchsetzen, werden Maschinen in der Lage sein, falsche Informationen schneller zu erstellen, als Menschen in der Lage sein werden, sie zu überprüfen.

Die Gefahr, dass wir dann versucht sein werden, andere KI-Systeme zu entwickeln, die uns sagen, was im Internet wahr ist und was nicht, ist daher sehr real. Es werden KIs sein, die als Inhaltsmoderatoren für andere KIs fungieren. In den meisten Fällen wird es sich bei den daraus resultierenden Systemen um geschlossene, proprietäre Tools handeln, die im Dienste gewinnorientierter Unternehmen, ihrer Investoren und Regierungen entwickelt werden, deren Interessen nicht immer mit denen des durchschnittlichen Internetnutzers übereinstimmen werden.

Wenn wir die gesellschaftlichen Veränderungen überleben wollen, die die breite Einführung von KI mit sich bringen wird, brauchen wir mehr und nicht weniger Menschen, um die Integrität unserer Informationsökosysteme und das Wohlergehen derer, deren Leben davon abhängt, zu gewährleisten.

Beispiele für KI-generierte Verschwörungen von LARP gibt es unter Lost Books.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Autor

T. Boucher ist ein ehemaliger Moderator für eine große Social-Media-Plattform und ein in Kanada lebender Science-Fiction-Autor. Seine Weltentwürfe wurden in der Literary Review of Canada veröffentlicht.

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!