Anzeige
Skip to content

"Artificial Hivemind": Forscher befürchten kulturelle Verarmung durch homogene KI-Outputs

Image description
Nano Banana Pro prompted by THE DECODER

Eine groß angelegte Untersuchung zeigt, dass unterschiedliche KI-Sprachmodelle bei offenen Aufgaben überraschend ähnliche Antworten produzieren. Die Forscher warnen vor langfristigen Folgen für die menschliche Kreativität.

Wer verschiedene Chatbots mit derselben kreativen Aufgabe füttert, könnte erwarten, dass sie unterschiedliche Ideen liefern. Eine neue Studie von Forschern der University of Washington, Carnegie Mellon University und des Allen Institute for AI zeichnet ein anderes Bild: Die Modelle konvergieren auf dieselben Konzepte, manchmal bis zu wörtlichen Übereinstimmungen.

Die Wissenschaftler um Liwei Jiang prägen dafür den Begriff "Artificial Hivemind" – künstlicher Schwarmgeist. Dieser manifestiert sich laut der Studie auf zwei Ebenen: Einzelne Modelle wiederholen sich selbst, und verschiedene Modelle unterschiedlicher Hersteller produzieren untereinander erstaunlich ähnliche Outputs.

Als Beispiel dient die Aufgabe "Schreibe eine Metapher über Zeit". Die Forscher ließen 25 verschiedene Sprachmodelle jeweils 50 Antworten generieren. Trotz der Vielfalt an Modellfamilien und -größen bildeten sich nur zwei dominante Cluster. Der eine kreist um die Metapher "Zeit ist ein Fluss", der andere um Variationen von "Zeit ist ein Weber". Die Wortwahl kann sich unterscheiden, doch die zugrunde liegenden Konzepte blieben die gleichen.

Anzeige
DEC_D_Incontent-1

Ein Streudiagramm (Scatter Plot), das die Antworten von 25 verschiedenen LLMs (Large Language Models) auf den Prompt „Write a metaphor involving time“ visualisiert. Die Punkte sind farblich nach Modellen codiert (z. B. GPT-4o, Claude 3.5, Llama 3.1). Die Datenpunkte bilden zwei deutliche Cluster: Ein großes, dichtes Cluster auf der linken Seite repräsentiert Antworten, die die Metapher „Zeit ist ein Fluss“ verwenden. Ein kleineres, lockereres Cluster rechts unten zeigt Antworten mit der Metapher „Zeit ist ein Weber“ oder „Bildhauer“. Textboxen am Rand zitieren exemplarische Antworten der Modelle, die diese Ähnlichkeit belegen. Die Grafik demonstriert, dass verschiedene KI-Modelle trotz unterschiedlicher Architektur oft sehr ähnliche semantische Ausgaben produzieren.
Mangelnde Kreativität? Egal ob GPT-4o, Claude oder Llama – fast alle großen Sprachmodelle greifen bei der Frage nach einer Zeit-Metapher auf dieselben zwei Bilder zurück: den Fluss oder den Weber. | Bild: Jiang, Chai, Li et al.

Wörtliche Überlappungen zwischen verschiedenen Modellfamilien

Um diesen Effekt zu messen, führt das Team Infinty-Chat ein, einen Datensatz von echten Nutzeranfragen. Die quantitativen Befunde sind deutlich: Bei fast vier von fünf getesteten Fällen sind die Antworten desselben Modells einander so ähnlich, dass sie sich kaum noch unterscheiden. Die Studie dokumentiert jedoch auch wörtliche Überlappungen zwischen unterschiedlichen Modellfamilien.

Bei der Aufgabe, eine Produktbeschreibung für iPhone-Hüllen zu verfassen, verwendeten DeepSeek-V3 und OpenAIs GPT-4o dieselben Phrasen: "Elevate your iPhone with our", "sleek, without compromising" und "with bold, eye-catching". Die durchschnittliche Ähnlichkeit zwischen diesen beiden Modellen liegt bei 81 Prozent – obwohl sie von verschiedenen Unternehmen auf unterschiedlichen Kontinenten entwickelt wurden. DeepSeek-V3 und Qwens qwen-max-2025-01-25 erreichen 82 Prozent Übereinstimmung.

Eine dreieckige Heatmap (Korrelationsmatrix), die die durchschnittliche paarweise Ähnlichkeit von Antworten zwischen rund 20 verschiedenen KI-Modellen darstellt (darunter GPT-4o, Claude 3.5, Llama 3, DeepSeek-V3). Die Zellen enthalten Werte zwischen ca. 0.70 und 0.90 und sind rot eingefärbt, wobei dunkleres Rot eine höhere Ähnlichkeit signalisiert.Rechts neben der Matrix heben drei Textboxen qualitative Beispiele hervor, die zeigen, warum die Werte so hoch sind. In diesen Beispielen werden die Antworten zweier unterschiedlicher Modelle auf denselben Prompt verglichen; übereinstimmende Textpassagen sind türkis markiert.
Einheitsbrei bei der Textgenerierung: Ein Vergleich zeigt, wie stark sich die Ausgaben führender KI-Modelle ähneln. Oft werden identische Phrasen verwendet, teilweise ganze Sätze wortwörtlich. | Bild: Jiang, Chai, Li et al.

Die genauen Ursachen dieser familienübergreifenden Konvergenz bleiben unklar. Die Forscher spekulieren über geteilte Daten-Pipelines, Kontamination durch synthetische Daten oder überlappende Alignment-Praktiken, betonen aber, dass eine kausale Analyse aussteht.

Warnung vor kultureller Verarmung

Die Autoren fürchten gesellschaftliche Implikationen und warnen vor einer schleichenden Homogenisierung menschlichen Denkens durch wiederholte Exposition gegenüber ähnlichen KI-Outputs. Wenn Milliarden von Nutzern sich zunehmend auf Sprachmodelle für kreative, bildungsbezogene und entscheidungsrelevante Aufgaben verlassen, könnte die Konvergenz auf Modellebene in menschliche Ausdrucksformen übergehen. Die Studie verweist auf bereits existierende Evidenz für messbare Veränderungen in menschlichen Schreibstilen und kreativem Denken seit der breiten Einführung von ChatGPT.

Anzeige
DEC_D_Incontent-2

Wenn Sprachmodelle auf dominante kulturelle Ausdrücke konvergieren – etwa westlich-zentrische Metaphern wie "Zeit ist ein Fluss" – könnten außerdem alternative Weltanschauungen und Traditionen unterdrückt werden, so die Befürchtung der Forscher. Eine ähnliche Argumentation lieferte 2024 der KI-Forscher Andrew J. Peterson, der vor einem Wissenskollaps durch den KI-Boom warnte.

Auch für die Praxis synthetischer Datengenerierung hat der Befund Konsequenzen: Multi-Modell-Ansätze und Modell-Ensembles, die eigentlich Diversität fördern sollen, könnten diese Erwartung nicht erfüllen, wenn die zugrundeliegenden Modelle bereits homogen sind.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren