Die Wikimedia Foundation stellt ihre neue KI-Strategie vor – nicht als Ersatz für menschliche Wikipedia-Autoren, sondern als Werkzeug zur Entlastung und Förderung der freiwilligen Community.
Geplant sind KI-gestützte Werkzeuge für Moderation, Übersetzung und schnellere Einarbeitung neuer Helfer. Außerdem soll KI dabei helfen, Informationen leichter auffindbar zu machen, um mehr Zeit für Diskussion und Konsens zu schaffen. Ziel sei es, die technische Hürde zu senken und so mehr Menschen zur Mitarbeit zu befähigen.
Die Organisation sieht in der neuen Strategie ein langfristiges Bekenntnis zur Mission, freies Wissen für alle zugänglich zu machen – ein Ziel, das angesichts der rasanten Entwicklung generativer KI an Relevanz gewonnen habe. Gerade weil Wikipedia zum Kernbestand vieler KI-Trainingsmodelle gehört, sei es wichtig, die Qualität und Integrität der Inhalte durch menschliche Kontrolle zu sichern.
"Unsere zukünftige Arbeit mit KI wird nicht nur durch das bestimmt, was wir tun, sondern auch wie wir es tun", heißt es in der Ankündigung.
Content-Generierung könnte später kommen
In seiner KI-Strategie schließt die Wikimedia Foundation die Content-Generierung nicht aus. Der Entschluss sei jedoch, zuerst auf die Integrität von Content zu fokussieren.
"Wenn wir stark in die Generierung neuer Inhalte investieren, bevor wir die Moderation stärken, wird der neue Inhalt die Kapazitäten der Redakteure zur Moderation überfordern", heißt es in der neuen Strategie.
Die breite Anwendung von KI sei nicht leistbar, daher konzentriere man sich bewusst auf wenige Schwerpunkte – auch wenn dies zu Spannungen mit anderen Erwartungen führen könne.
Technisch setzt die Stiftung bevorzugt auf quelloffene KI-Modelle, muss jedoch mangels Ressourcen auch auf sogenannte Open-Weight-Modelle zurückgreifen – also Modelle mit offen zugänglichen Gewichtungen, aber nicht vollständig offenem Quellcode. Ein eigenes quelloffenes Grundmodell sei derzeit nicht realisierbar.