Anzeige
Skip to content

Deutsche Wikipedia-Community beschließt weitreichendes Verbot für KI-Inhalte

Image description
GPT-4o prompted by THE DECODER

Kurz & Knapp

  • Die deutschsprachige Wikipedia hat mit 208 zu 108 Stimmen ein Verbot von KI-generierten Texten in Artikeln und auf Diskussionsseiten  beschlossen. Wiederholte Verstöße können zu dauerhaften Sperren führen.
  • Ausnahmen gelten für KI-gestützte Übersetzungen, Rechtschreibkorrekturen und Recherche, sofern die Ergebnisse manuell geprüft werden. Kritiker bemängeln fehlende Erkennungskriterien.
  • Damit geht die deutschsprachige Community einen Alleingang: Die Wikimedia Foundation und die englischsprachige Wikipedia setzen statt auf ein pauschales Verbot auf gezielte Bekämpfung schlechter KI-Inhalte.

Die deutschsprachige Wikipedia-Community hat ein weitreichendes Verbot von KI-generierten Inhalten beschlossen. Damit geht sie einen internationalen Alleingang, denn andere Wikipedia-Sprachversionen und die Wikimedia Foundation setzen auf einen weniger restriktiven Ansatz.

Nach einem Meinungsbild, das am 15. Februar 2026 endete, ist das Einstellen von Texten, die mit großen Sprachmodellen erzeugt oder bearbeitet wurden, laut einer neuen Richtlinie nun ausdrücklich verboten. Das gilt im Artikelbereich und auf Diskussionsseiten.

Wer wiederholt dagegen verstößt, kann dauerhaft gesperrt werden. Für die Annahme des Vorschlags stimmten 208 Nutzer, dagegen 108.

Ausnahmen für Übersetzungen und Recherche

Auch KI-gestützte Tools, die ohne menschliche Prüfung jedes einzelnen Edits Änderungen vornehmen, sind untersagt. Die direkte Übernahme von KI-generierten Formulierungsvorschlägen ist ebenfalls verboten, sofern es sich nicht ausschließlich um Rechtschreib- und Grammatikkorrekturen handelt.

Anzeige

Erkennbar KI-generierte externe Texte dürfen zudem nicht als Belege für Wikipedia-Artikel dienen. Dass das Verbot auch für Diskussionsseiten gilt, empfinden selbst manche Befürworter als übertrieben.

Ausnahmen sieht die Richtlinie dennoch vor: KI-gestützte Übersetzungen aus anderen Sprachversionen sind erlaubt, wenn sie vollständig auf inhaltliche Korrektheit geprüft werden. Auch die Korrektur von Rechtschreibung und Grammatik mittels KI bleibt zulässig.

Reine Recherche unter Zuhilfenahme von KI ist  ebenfalls gestattet, so gefundenes Material muss jedoch manuell ausgewertet werden.

KI-generierte Bilder dürfen nur in Ausnahmefällen und nach vorheriger Diskussion verwendet werden, etwa zur Bebilderung von Artikeln über KI-Bildgeneratoren, nie jedoch als Ersatz für fehlende echte Fotos, etwa Porträts.

Anzeige
DEC_D_Incontent-1

Sperren sollen laut der neuen Richtlinie nur bei sehr klarer Beweislage erfolgen. Im Zweifelsfall sollen keine Sperren verhängt werden.

Kritik an fehlenden Erkennungskriterien

Befürworter argumentieren, Wikipedia könne sich als Projekt menschengeschriebener Inhalte profilieren und ein Signal gegen "KI-Müll im Internet" setzen. Halluzinationen, also von KI erfundene Fakten, seien ein grundlegendes, fortbestehendes Problem, wie selbst Unternehmen wie OpenAI einräumen.

Kritiker bemängeln dagegen fehlende Erkennungskriterien mit ausreichender Beweiskraft und warnen vor endlosen Diskussionen über Verdachtsfälle. In der Abstimmung hieß es etwa: "Gut gemeint, aber ohne Erkennungsmerkmale und Verfahrensweisen nicht wirksam."

Mehrere Gegenstimmen forderten zudem eine Zweidrittelmehrheit für eine so weitreichende Entscheidung. Andere sehen Wikipedia durch ein solches Verbot als "in der Zeit stehen geblieben", da KI-Nutzung in Bildungssystemen stetig steige.

Anzeige
DEC_D_Incontent-2

Die Wikimedia Foundation verfolgt in ihrer KI-Strategie 2025–2028 unter dem Motto "Humans First" einen anderen Ansatz: Sie will KI-Slop in der Wikipedia ebenfalls verhindern, sieht KI aber ausdrücklich als Hilfsmittel für Autoren, etwa bei Recherche, Qualitätssicherung, dem Auffinden von Fehlern oder der Vandalismusbekämpfung.

Auch die englischsprachige Wikipedia-Community setzt mit dem Projekt "AI Cleanup" und einem Schnelllöschkriterium auf gezielte Bekämpfung schlechter KI-Inhalte statt auf ein pauschales Verbot.

Das Projekt hat über 200 eingetragene Freiwillige, die sich darauf konzentrieren, KI-generierte Artikel gezielt aufzuspüren und zu entfernen.

Das Schnelllöschkriterium G15 ermöglicht es, eindeutig als KI-generiert erkannte Artikel ohne längere Diskussion sofort zu löschen, setzt aber eine beweiskräftige Erkennung voraus.

Wikipedia unter Druck durch KI-Systeme und Grokipedia

Die Richtlinie kommt zu einem Zeitpunkt, an dem Wikipedia zunehmend unter Druck steht. Die Wikimedia Foundation warnte in ihrem Blog, dass KI-Systeme zwar Wikipedia-Inhalte ausspielen, aber immer weniger Nutzer auf die eigentliche Webseite bringen.

Die Stiftung fordert KI-Entwickler daher auf, Inhalte korrekt zu kennzeichnen und über Wikimedia Enterprise fair zu lizenzieren. Ohne finanzielle Beiträge sei das offene Wissensmodell gefährdet.

Gleichzeitig hat Elon Musk mit Grokipedia eine KI-generierte Online-Enzyklopädie gestartet, die Wikipedia ersetzen will. Die Plattform wird vollständig von Musks KI-Unternehmen xAI betrieben und umfasste zum Start rund 800.000 maschinell generierte Artikel.

Grokipedia zeigt jedoch auffällig viele Verzerrungen insbesondere bei sensiblen politischen Themen und liefert so immer wieder voreingenommenen "KI-Slop" statt neutraler Enzyklopädie-Einträge.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.