KI und Gesellschaft

ChatGPT Wikipedia-Artikel sind "schrecklich" und "schlampig", sagt Wiki-Gründer Jimmy Wales

Matthias Bastian
Erstellen Sie eine handgezeichnete Illustration im Breitbildformat in einem modernen digitalen Kunststil, die eine Szene zeigt, in der der Schatten eines Chatbot-ähnlichen Roboters bedrohlich über einem Computerbildschirm mit Wikipedia auftaucht. Der Chatbot-Roboter sollte Merkmale wie ein digitales Bildschirmgesicht und tastaturähnliche Elemente aufweisen, die ihm ein unverwechselbares "Chatbot"-Aussehen verleihen. Die Umgebung ist ein schwach beleuchteter Raum, in dem der Computerbildschirm hell leuchtet und verschiedene Wikipedia-Seiten anzeigt. Der Schatten sollte eindeutig dem Chatbot ähneln und die Erzählung von einem Chatbot, der für Wikipedia kommt, verstärken, wobei der Schwerpunkt auf dem starken Kontrast und einer leicht futuristischen, dramatischen Atmosphäre liegt.

DALL-E 3 prompted by THE DECODER

Wikipedia-Gründer Jimmy Wales sagt, dass ChatGPT derzeit ein großes Durcheinander verursacht, wenn es zum Schreiben von Artikeln auf der Plattform verwendet wird, da es oft falsche Informationen liefert und Quellen erfindet.

Wales bezeichnete einen Wikipedia-Artikel, der mit ChatGPT-4 geschrieben wurde, als "schrecklich" und betonte die Notwendigkeit von Genauigkeit und unvoreingenommenen Informationen in der Online-Enzyklopädie, die als wichtige Quelle für das KI-Training dient.

Laut Wales lässt GPT-4 "wirklich eine Menge aus und macht Dinge falsch, und zwar auf plausible Weise, und es erfindet Quellen und ist ein einziges Durcheinander."

Im April drückte sich Wales etwas positiver aus. Er sagte, dass hilfreiche KI-Artikel "sicherlich näher sind, als ich vor zwei Jahren gedacht hätte." Aber er war schon damals skeptisch und sagte, dass er unter anderem das Risiko sehe, dass KI bereits bestehende Vorurteile in Wikipedia verstärken könnte.

KI könnte auf andere Weise helfen

Trotz seiner Kritik ist Wales offen für eine mögliche Rolle von KI bei der Unterstützung von Wikipedia. Er erwägt Partnerschaften mit Open-Source-KI-Unternehmen und erforscht Tools, die helfen könnten, Ungenauigkeiten in Artikeln zu identifizieren oder KI zu nutzen, um Wikipedia-Artikel auf Widersprüche zu überprüfen und Informationslücken zu identifizieren, indem die Wikipedia-Datenbank mit dem weltweiten Wissen verglichen wird.

Im August letzten Jahres stellte Meta PEER vor, ein kollaboratives Sprachmodell, das auf der Editierhistorie von Wikipedia trainiert wurde, um als Schreibhilfe Textänderungen abzuleiten. Zuvor hatte Meta Side gezeigt, ein Open-Source-KI-Modell zur Überprüfung und Verbesserung von Wikipedia-Quellen.

Side kann automatisch Hunderttausende von Wikipedia-Quellen überprüfen, Redakteure auf fehlerhafte oder irrelevante Quellen hinweisen und bessere Alternativen vorschlagen. Es besteht keine Partnerschaft zwischen Meta und Wikimedia, dem Betreiber von Wikipedia.

Mehrere andere Projekte haben bereits versucht, KI zur Verbesserung von Wikipedia einzusetzen, zum Beispiel als Schreibassistent für Aktualisierungen oder zum Verfassen von Wiki-Biographien ignorierter Forscher.

Quellen: