Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen
Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.
Metas Oversight Board kommt in einer umfangreichen Analyse zu einem wenig überraschenden Befund: Community Notes - also das System, mit dem Meta professionelles Fact-Checking in den USA ersetzt hat - weist erhebliche Schwächen auf. "Verzögerungen bei der Veröffentlichung von Notizen, die begrenzte Anzahl veröffentlichter Notizen und die Abhängigkeit von der Zuverlässigkeit des breiteren Informationsumfelds werfen ernsthafte Zweifel daran auf, inwieweit Community Notes Desinformation, die mit Schäden verbunden ist, sinnvoll bekämpfen können", schreibt das Gremium.
Meta hatte die Einführung von Community Notes zum Beginn von US-Präsident Donald Trumps zweiter Amtszeit angekündigt und gleichzeitig das Ende seines vor rund einem Jahrzehnt gestarteten professionellen Fact-Checking-Programms in den USA verkündet.
Das Problem verschärft sich durch eine Entwicklung, die das Board explizit benennt: KI-gestützte Werkzeuge erleichtern die skalierte Erstellung und Verwaltung von Accounts und Netzwerken, die das System manipulieren könnten. Die Abdeckungslücke ist enorm: Laut Meta wurden in den ersten sechs Monaten des US-Rollouts gerade einmal rund 900 Community Notes veröffentlicht. Im selben Zeitraum ermöglichten professionelle Fact-Checker in der EU laut dem European Fact-Checking Standards Network die Kennzeichnung von rund 35 Millionen Facebook-Posts, wie Angie Drobnic Holan, Direktorin des International Fact-Checking Network, anmerkt.
Nur sechs Prozent der vorgeschlagenen Notes werden veröffentlicht
Das Community-Notes-System basiert auf dem Open-Source-Algorithmus von X (ehemals Twitter). Nutzer können zu öffentlichen Beiträgen Kontext-Hinweise vorschlagen. Andere Nutzer bewerten diese als "hilfreich" oder "nicht hilfreich". Eine Note wird erst veröffentlicht, wenn ein sogenannter Bridging-Algorithmus feststellt, dass Nutzer, die normalerweise unterschiedlicher Meinung sind, die Note übereinstimmend als hilfreich einstufen.
In der Praxis scheitern die meisten Notes an dieser Hürde. Laut einem Update von Meta vom September 2025 werden nur etwa sechs Prozent aller vorgeschlagenen Notes jemals veröffentlicht. Auf X liegt die Quote laut einer Studie bei 8,3 Prozent, wobei die durchschnittliche Verzögerung bis zur Veröffentlichung bei 26 Stunden liegt, "weit über dem Zeitpunkt der maximalen Sichtbarkeit für die meisten irreführenden Beiträge". Eine weitere Analyse beziffert die durchschnittliche Verzögerung sogar auf 65,7 Stunden. Zwischen Januar 2021 und Januar 2025 verblieben laut derselben Studie 87,7 Prozent aller auf X vorgeschlagenen Notes im Status "Needs More Ratings", ohne je veröffentlicht zu werden.
Ein entscheidender Unterschied zum früheren Fact-Checking-Programm: Inhalte, die eine Community Note erhalten, werden laut dem Board weder herabgestuft noch von Empfehlungen ausgeschlossen. Es gibt "keine Verwarnungen für das Posten von Inhalten, die eine Community Note erhalten" und keine Auswirkungen auf Reichweite oder Monetarisierung. Beim professionellen Fact-Checking konnten als falsch oder irreführend eingestufte Inhalte dagegen in ihrer Verbreitung eingeschränkt und für Werbung gesperrt werden.
KI-generierte Manipulation als wachsende Bedrohung
Das Oversight Board warnt ausdrücklich vor der Anfälligkeit des Systems für koordinierte Manipulation, die durch KI-Werkzeuge erheblich erleichtert wird. "Dieses Risiko wird sich verschärfen, da künstliche Intelligenz die skalierte Erstellung und den Betrieb von Accounts und Netzwerken erleichtert", heißt es in der Analyse. Das Board sieht auch Risiken im Einsatz KI-gestützter Beitragender: Böswillige Akteure könnten Modelle so anpassen, dass sie subtil bestimmte Narrative bevorzugen, Belege selektiv rahmen oder den Bewertungsmechanismus ausnutzen, während sie neutral erscheinen.
Aktuelle Forschung zu X's Community Notes zeigt zudem, dass bereits "eine kleine Minderheit (5-20%) schlechter Bewerter gezielt hilfreiche Notes strategisch unterdrücken kann". Ein weiteres Einfallstor: Veröffentlichte Notes werden laut dem Board erst zwei Wochen nach Erreichen des Konsenses endgültig "gesperrt". In dieser Zeitspanne könnten koordinierte Akteure eine Note durch massenhaft negative Bewertungen wieder entfernen.
Meta erklärte gegenüber dem Board, dass es keine KI-gesteuerten Note-Schreiber auf seinen Plattformen zulassen werde. Nutzer dürften zwar KI als Hilfe beim Verfassen verwenden, aber ein Mensch müsse die Note einreichen. Das Unternehmen gab zudem an, bislang kein koordiniertes inauthentisches Verhalten oder Gaming des Programms festgestellt zu haben. Ob Metas Schutzmaßnahmen der potenziellen Dimension der Bedrohung gerecht werden, lässt sich laut dem Board anhand der vorliegenden Informationen jedoch nicht abschließend beurteilen.
Southport-Riots: Ein einziger Hinweis bei über tausend Falschinformations-Posts
Die Schwächen des Systems zeigen sich besonders in Krisensituationen. Das Board verweist auf eine Untersuchung der Southport-Riots in Großbritannien 2024: Fünf Accounts, die Falschinformationen verbreiteten, erzielten über 430 Millionen Aufrufe. Von 1.060 Posts während der Hochphase der Unruhen erhielt genau einer eine Community Note.
Das Board zieht daraus eine klare Schlussfolgerung: Community Notes sollte in Ländern mit aktiven Krisen oder langwierigen Konflikten nicht eingeführt werden. In solchen Situationen sei die Schwelle für Aufstachelung zur Gewalt niedriger, und Notes, die bestimmte Gruppen ins Visier nehmen, könnten leichter zu realer Gewalt führen. Das dass eine begründete Befürchtung ist, zeigen Metas Rolle im Völkermord an Minderheiten in Myanmar und Äthiopien durch mangelnde Moderation hasserfüllter Inhalte. 2018 hatte sich Facebook für seine Rolle bei "Offline-Gewalt" in Myanmar entschuldigt.
Besonders problematisch: Meta hat laut dem Board bislang "keine Vorkehrungen für den Einsatz des Produkts in Krisensituationen entwickelt, einschließlich der Anpassung, Änderung oder Aussetzung der Funktion".
Minderheiten könnten systematisch benachteiligt werden
Eine strukturelle Schwäche des Systems betrifft dessen Algorithmus. Dieser modelliert gesellschaftliche Polarisierung entlang einer einzigen Achse, wie das Board feststellt. Meta habe keine Informationen vorgelegt, die darauf hindeuteten, dass sein Programm substanziell anders funktioniere als das von X. In Ländern, in denen sich gesellschaftliche Spaltung nicht auf eine solche Achse reduzieren lässt, etwa weil sich politische, ethnische, religiöse und sprachliche Konflikte überlagern, kann das zu einer systematischen Benachteiligung von Minderheiten führen.
Das Board beschreibt ein konkretes Szenario: Wenn dominante Gruppen ein gemeinsames Vorurteil gegenüber einer Minderheit teilen, kann dieses Vorurteil als "Brücke" zwischen ansonsten uneinigen Mehrheitsgruppen fungieren. Schädliche Notes, die Minderheiten ins Visier nehmen, könnten dann den Konsens-Schwellenwert erreichen und veröffentlicht werden. Ein Konsortium südasiatischer NGOs präsentierte dem Board Belege für genau solche Dynamiken bei Xs Community Notes in Indien, wo politische Spaltungen komplexe und sich überschneidende Zugehörigkeiten entlang von Ethnizität, Religion, Sprache und Kaste widerspiegeln.
Hinzu kommt die sprachliche Dimension: Das System funktioniert derzeit nur in sechs Sprachen (Englisch, Spanisch, Chinesisch, Vietnamesisch, Französisch und Portugiesisch). Forschung zeigt, dass Notes in nicht-englischen Sprachen auf X deutlich seltener bewertet und veröffentlicht werden. In Ländern mit repressiven Menschenrechtsbilanzen sieht das Board zudem Risiken für die Sicherheit von Beitragenden, sollte deren Anonymität kompromittiert werden: Risiken für das Recht auf Privatsphäre, die Sicherheit der Person und sogar das Recht auf Leben.
Das Board empfiehlt eine gestaffelte Einführung mit harten Ausschlusskriterien
Das Oversight Board formuliert eine Reihe konkreter Empfehlungen für die geplante internationale Ausweitung. Länder mit repressiven Menschenrechtsbilanzen und schwacher Zivilgesellschaft sollten von der Einführung ausgeschlossen werden, bis Meta robuste Schutzmaßnahmen für die Anonymität von Beitragenden nachweisen kann, einschließlich Red-Teaming unter feindlichen Bedingungen und einer klaren Richtlinie für den Umgang mit Datenanfragen von Strafverfolgungsbehörden. Dasselbe gilt für Länder mit aktiven Krisen oder Konflikten sowie für Länder mit einer Geschichte koordinierter Desinformationsnetzwerke.
Bei Wahlen empfiehlt das Board besondere Vorsicht: Wo Meta durch Produkttests und Menschenrechts-Sorgfaltspflicht feststelle, dass seine Schutzmaßnahmen unzureichend seien, sollte Community Notes nicht vor oder während wichtiger Wahlen eingeführt werden. Bei Ländern mit mehrdimensionaler gesellschaftlicher Spaltung empfiehlt das Board "extreme Vorsicht", ohne sie kategorisch auszuschließen. Auch Länder mit systematischen Hindernissen beim Internetzugang sollten ausgeschlossen werden.
Meta soll dem Board alle sechs Monate die Kriterien und die Risikomatrix vorlegen, nach denen es über die Ausweitung entscheidet. Das Board fordert zudem umfassende Transparenz und Forscherzugang zu den Daten des Community-Notes-Programms. Allerdings ist Meta rechtlich nicht verpflichtet, den Empfehlungen des Boards zu folgen.
Fact-Checking und Community Notes schließen sich nicht aus
Das Board betont ausdrücklich, Community Notes und professionelles Fact-Checking sollten nicht als sich gegenseitig ausschließende Instrumente betrachtet werden. Forschung zeige, dass Community Notes auf X Fact-Checking-Quellen "bis zu fünfmal häufiger zitieren als zuvor berichtet". Fact-Checking-Organisationen sind laut einer weiteren Studie die dritthäufigste Referenzquelle in veröffentlichten Notes weltweit. Eine Reduzierung der Unterstützung für Fact-Checker werde demnach auch die Qualität von Community Notes selbst beeinträchtigen, da Beitragenden weniger verlässliche Quellen zum Zitieren zur Verfügung stünden.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.