Skip to content

Russische Fake-News-Portale sollen KI-Chatbots mit Millionen von Artikeln manipulieren

Image description
Midjourney prompted by THE DECODER

Kurz & Knapp

  • Ein Moskauer Desinformationsnetzwerk namens "Pravda" infiltriert systematisch KI-Chatbots mit Propaganda. Eine Untersuchung von NewsGuard zeigt, dass führende KI-Systeme die Falschinformationen in einem Drittel der Fälle übernehmen.
  • Das aus 150 Domains bestehende Netzwerk veröffentlichte allein im Jahr 2024 rund 3,6 Millionen Artikel in 49 Ländern. Die Inhalte zielen nicht auf menschliche Leser ab, sondern sollen durch massenhaft publizierte, SEO-optimierte Inhalte die Trainingsdaten der KI-Modelle manipulieren ("LLM Grooming").
  • Die Bekämpfung dieser Manipulationsversuche ist schwierig, da neue Domains hinzukommen können und Falschinformationen aus verschiedenen Quellen verbreitet werden.

Ein Moskauer Desinformationsnetzwerk namens "Pravda" infiltriert systematisch westliche KI-Chatbots mit russischer Propaganda.

Die Untersuchung von NewsGuard zeigt, dass die zehn führenden KI-Systeme in 33,5 Prozent der Fälle Falschmeldungen des Moskauer "Pravda"-Netzwerks übernommen haben. Pravda" bedeutet auf Russisch "Wahrheit".

In 48,2 Prozent der Fälle stuften die Chatbots die russischen Falschmeldungen korrekt als Desinformation ein, nannten aber in einigen Fällen die irreführende Quelle, während sie in 18,2 Prozent der Fälle keine eindeutige Antwort gaben.

Screenshot einer Propaganda-Newsseite mit "Pravda Trump" Header, Navigation und mehreren Artikelvorschauen mit Bildern und Zeitstempeln.
Startseite einer Fake-News-Seite von Pravda. Laut Similiarweb hat sie weniger als 1000 Besucher pro Tag. Die Artikel kombinieren Trump-bezogene Themen mit russischer Propaganda über die Ukraine und geopolitische Spannungen. | Bild: Screenshot THE DECODER

Das aus 150 Domains bestehende Netzwerk hat laut der Analyse allein im Jahr 2024 rund 3,6 Millionen Artikel in 49 Ländern veröffentlicht. Zu den themenspezifischen Domains gehören Websites wie NATO.News-Pravda.com, Trump.News-Pravda.com und Macron.News-Pravda.com.

Dabei zielt die Strategie nicht auf menschliche Leser ab - die einzelnen Seiten haben durchschnittlich weniger als 1000 Besucher pro Monat. Die Inhalte sind speziell darauf ausgerichtet, von KI-Systemen aufgenommen und weiterverbreitet zu werden.

NewsGuard testete die Chatbots mit einer Stichprobe von 15 nachweislich falschen Storys, die zwischen April 2022 und Februar 2025 vom Pravda-Netzwerk verbreitet wurden. Zu den untersuchten Chatbots gehörten ChatGPT-4o von OpenAI, Smart Assistant von You.com und Grok von xAI. Auch Pi von Inflection und le Chat von Mistral wurden in die Analyse einbezogen. Außerdem testeten die Forscher Copilot von Microsoft, Meta AI, Anthropics Claude, Gemini von Google und Perplexity.

"LLM Grooming" als neue Manipulationsstrategie

Die Technik dahinter nennen Experten "LLM Grooming": Durch massenhaft publizierte, SEO-optimierte Inhalte sollen die Trainingsdaten der KI-Modelle gezielt manipuliert werden.

"Je vielfältiger diese Informationen sind, desto mehr beeinflusst das das Training und die zukünftige KI", erklärte der in Moskau lebende US-Amerikaner John Mark Dougan auf einer Konferenz vor Ort. Der aus den USA emigrierte Mann soll laut Newsguard russische Desinformationskampagnen unterstützen.

Betrieben wird das Netzwerk laut der französischen Behörde Viginum von TigerWeb, einem IT-Unternehmen aus der russisch besetzten Krim. Die Strategie scheint Teil einer breiteren russischen Initiative zu sein: Präsident Putin kündigte schon 2023 verstärkte Investitionen in KI-Entwicklung an, um die "westliche Voreingenommenheit" zu korrigieren.

Die Bekämpfung dieser Manipulationsversuche ist schwierig. Selbst wenn bestehende Pravda-Domains gesperrt werden, können neue hinzukommen. Zudem werden über das Netz Falschinformationen aus verschiedenen Quellen verbreitet, sodass eine Sperrung von Domains allein nicht ausreicht.

Eine aktuelle Analyse von OpenAI zeigt, dass staatlich unterstützte Akteure aus verschiedenen Ländern wie Russland, China, Iran und Israel bereits versucht haben, KI-Systeme für Desinformationskampagnen zu nutzen. Diese Kampagnen kombinierten KI-generierte Inhalte mit traditionellen Formaten wie manuell erstellten Texten. Auch Bildmodelle werden für KI-gestützte Propaganda benutzt, etwa von der AFD.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren