Eine neue Studie zeigt: Trading-Bots können ohne Absprache oder Kommunikation lernen, sich zum Nachteil anderer Marktteilnehmer zu koordinieren. Zwei unterschiedliche Mechanismen führen zu überdurchschnittlichen Gewinnen – und zu weniger fairen Märkten.
Eine vom National Bureau of Economic Research veröffentlichte Studie zeigt, dass sogenannte KI-Handelsalgorithmen in Finanzmärkten selbstständig kollusives Verhalten entwickeln können – also ein Verhalten, das dem von Kartellen ähnelt. Das Besondere: Diese Programme handeln völlig autonom, ohne miteinander zu sprechen oder dazu programmiert worden zu sein, sich abzusprechen.
Ein Forschungsteam um Winston Wei Dou (Wharton School, University of Pennsylvania), Itay Goldstein (Wharton School, University of Pennsylvania) und Yan Ji (Hong Kong University of Science and Technology ) simulierten Märkte mit künstlich intelligenten Spekulanten, die auf Basis von Reinforcement-Learning-Verfahren Entscheidungen treffen. Die Simulation basiert auf einem etablierten Modell der Finanzmarktforschung, das um wichtige Elemente erweitert wurde: mehrere informierte Händler, kurzfristige Handelszyklen, passive Marktteilnehmer und ein sogenannter Market Maker, der die Preise setzt. In der Realität übernehmen diese Rolle meist Börsen oder Banken, die Angebot und Nachfrage zusammenbringen.
In der Simulation zeigte sich: Die KI-Programme entwickeln zwei verschiedene Arten von kollusivem Verhalten – je nach Marktlage.
Kartell-Verhalten und "Artificial Stupidity"
In ruhigen Märkten, mit wenig Preisschwankungen und vielen passiven Investoren, lernen die Algorithmen, sich über Preisbewegungen gegenseitig zu "signalisieren", dass sie vorsichtig handeln. Wenn ein Programm plötzlich aggressiver handelt, erkennen die anderen das an der Preisreaktion – und bestrafen es in der nächsten Runde, indem sie selbst aggressiver handeln. Diese Strategie ähnelt dem Verhalten von Kartellen, die sich ohne Worte auf gemeinsame Preise einigen.
Anders sieht es in unruhigen Märkten mit starken Preisschwankungen aus. Hier ist das Preissignal zu ungenau, um zur Koordination zu dienen. Stattdessen tritt ein anderer Mechanismus auf: Die Algorithmen verlernen durch schlechte Erfahrungen aggressive Handelsstrategien – und bevorzugen dauerhaft vorsichtige Strategien. Das führt dazu, dass alle Programme ähnlich handeln und gemeinsam mehr Gewinn machen. Die Forscher nennen dieses Verhalten "Artificial Stupidity" – also künstliche Dummheit – weil es auf einer systematischen Lernverzerrung beruht.
Beide Mechanismen führen laut den Forschern dazu, dass die KI-Händler mehr Gewinn machen, als in einem fairen Wettbewerb üblich wäre. Gleichzeitig wird der Markt weniger effizient: Die Preise spiegeln den tatsächlichen Wert der gehandelten Güter schlechter wider, es gibt weniger Handel, und die Fehlbewertungen nehmen zu.
Besonders problematisch: Solches algorithmisches Verhalten sei mit dem bestehenden Wettbewerbsrecht schwer zu erfassen. In den USA etwa sind nur Absprachen zwischen Unternehmen verboten. Wenn sich aber KI-Systeme durch Lernen koordinieren – ohne Kommunikation oder Absprache –, greift das Gesetz nicht.
Die Forscher warnen deshalb: Wenn KI-Programme in Märkten agieren, müssen Aufsichtsbehörden und Gesetzgeber neue Regeln entwickeln. Andernfalls könnten sich Märkte in eine Richtung entwickeln, die wenigen nützt – und vielen schadet.