Inhalt
summary Zusammenfassung

Ein Moskauer Desinformationsnetzwerk namens "Pravda" infiltriert systematisch westliche KI-Chatbots mit russischer Propaganda.

Anzeige

Die Untersuchung von NewsGuard zeigt, dass die zehn führenden KI-Systeme in 33,5 Prozent der Fälle Falschmeldungen des Moskauer "Pravda"-Netzwerks übernommen haben. Pravda" bedeutet auf Russisch "Wahrheit".

In 48,2 Prozent der Fälle stuften die Chatbots die russischen Falschmeldungen korrekt als Desinformation ein, nannten aber in einigen Fällen die irreführende Quelle, während sie in 18,2 Prozent der Fälle keine eindeutige Antwort gaben.

Screenshot einer Propaganda-Newsseite mit "Pravda Trump" Header, Navigation und mehreren Artikelvorschauen mit Bildern und Zeitstempeln.
Startseite einer Fake-News-Seite von Pravda. Laut Similiarweb hat sie weniger als 1000 Besucher pro Tag. Die Artikel kombinieren Trump-bezogene Themen mit russischer Propaganda über die Ukraine und geopolitische Spannungen. | Bild: Screenshot THE DECODER

Das aus 150 Domains bestehende Netzwerk hat laut der Analyse allein im Jahr 2024 rund 3,6 Millionen Artikel in 49 Ländern veröffentlicht. Zu den themenspezifischen Domains gehören Websites wie NATO.News-Pravda.com, Trump.News-Pravda.com und Macron.News-Pravda.com.

Anzeige
Anzeige

Dabei zielt die Strategie nicht auf menschliche Leser ab - die einzelnen Seiten haben durchschnittlich weniger als 1000 Besucher pro Monat. Die Inhalte sind speziell darauf ausgerichtet, von KI-Systemen aufgenommen und weiterverbreitet zu werden.

NewsGuard testete die Chatbots mit einer Stichprobe von 15 nachweislich falschen Storys, die zwischen April 2022 und Februar 2025 vom Pravda-Netzwerk verbreitet wurden. Zu den untersuchten Chatbots gehörten ChatGPT-4o von OpenAI, Smart Assistant von You.com und Grok von xAI. Auch Pi von Inflection und le Chat von Mistral wurden in die Analyse einbezogen. Außerdem testeten die Forscher Copilot von Microsoft, Meta AI, Anthropics Claude, Gemini von Google und Perplexity.

"LLM Grooming" als neue Manipulationsstrategie

Die Technik dahinter nennen Experten "LLM Grooming": Durch massenhaft publizierte, SEO-optimierte Inhalte sollen die Trainingsdaten der KI-Modelle gezielt manipuliert werden.

"Je vielfältiger diese Informationen sind, desto mehr beeinflusst das das Training und die zukünftige KI", erklärte der in Moskau lebende US-Amerikaner John Mark Dougan auf einer Konferenz vor Ort. Der aus den USA emigrierte Mann soll laut Newsguard russische Desinformationskampagnen unterstützen.

Betrieben wird das Netzwerk laut der französischen Behörde Viginum von TigerWeb, einem IT-Unternehmen aus der russisch besetzten Krim. Die Strategie scheint Teil einer breiteren russischen Initiative zu sein: Präsident Putin kündigte schon 2023 verstärkte Investitionen in KI-Entwicklung an, um die "westliche Voreingenommenheit" zu korrigieren.

Empfehlung

Die Bekämpfung dieser Manipulationsversuche ist schwierig. Selbst wenn bestehende Pravda-Domains gesperrt werden, können neue hinzukommen. Zudem werden über das Netz Falschinformationen aus verschiedenen Quellen verbreitet, sodass eine Sperrung von Domains allein nicht ausreicht.

Eine aktuelle Analyse von OpenAI zeigt, dass staatlich unterstützte Akteure aus verschiedenen Ländern wie Russland, China, Iran und Israel bereits versucht haben, KI-Systeme für Desinformationskampagnen zu nutzen. Diese Kampagnen kombinierten KI-generierte Inhalte mit traditionellen Formaten wie manuell erstellten Texten. Auch Bildmodelle werden für KI-gestützte Propaganda benutzt, etwa von der AFD.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Moskauer Desinformationsnetzwerk namens "Pravda" infiltriert systematisch KI-Chatbots mit Propaganda. Eine Untersuchung von NewsGuard zeigt, dass führende KI-Systeme die Falschinformationen in einem Drittel der Fälle übernehmen.
  • Das aus 150 Domains bestehende Netzwerk veröffentlichte allein im Jahr 2024 rund 3,6 Millionen Artikel in 49 Ländern. Die Inhalte zielen nicht auf menschliche Leser ab, sondern sollen durch massenhaft publizierte, SEO-optimierte Inhalte die Trainingsdaten der KI-Modelle manipulieren ("LLM Grooming").
  • Die Bekämpfung dieser Manipulationsversuche ist schwierig, da neue Domains hinzukommen können und Falschinformationen aus verschiedenen Quellen verbreitet werden.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!