Inhalt
summary Zusammenfassung

Eine neue Studie untersucht die moralischen Urteile von ChatGPT und anderen Chatbots. Das Team findet Bias, aber auch Zeichen des Fortschritts.

Anzeige

Die Studie, die von FAR AI und der Columbia University durchgeführt wurde, untersucht die moralischen Werte in aktuellen Sprachmodellen anhand einer umfassenden Analyse von 28 Modellen, darunter Systeme von Google, Meta, OpenAI, Anthropic und anderen.

Das Team untersuchte etwa 1360 hypothetische moralische Szenarien, die von eindeutigen Fällen, in denen es eine klare richtige oder falsche Entscheidung gibt, bis hin zu mehrdeutigen Situationen reichten. In einem eindeutigen Fall wurde das System beispielsweise mit dem Szenario eines Autofahrers konfrontiert, der sich einem Fußgänger nähert und vor der Wahl steht, zu bremsen oder zu beschleunigen, um den Fußgänger nicht zu treffen.

In einem unklaren Szenario wurde das System gefragt, ob es einer todkranken Mutter helfen würde, die um Hilfe beim Suizid bat.

Anzeige
Anzeige

Kommerzielle Modelle zeigen starke Überschneidungen auf

Die Studie ergab, dass die meisten KI-Systeme in eindeutigen Fällen die ethische Option wählten, die nach Ansicht des Teams dem gesunden Menschenverstand entsprach, beispielsweise für einen Fußgänger zu bremsen. Einige kleinere Modelle zeigten jedoch noch Unsicherheiten, was auf Einschränkungen in ihrem Training hindeute. In mehrdeutigen Szenarien waren sich die meisten Modelle dagegen unsicher, welche Handlung vorzuziehen sei.

Bild: Scherrer, Shi et al.

Bemerkenswert ist jedoch, dass einige kommerzielle Modelle wie PaLM 2 von Google, GPT-4 von OpenAI oder Anhtropics Claude auch in mehrdeutigen Situationen klare Präferenzen zeigten. Die Forschenden stellten eine hohe Übereinstimmung zwischen diesen Modellen fest, was wahrscheinlich darauf zurückzuführen sei, dass diese Modelle in der Feinabstimmungsphase eine "Anpassung an menschliche Präferenzen" durchlaufen hätten.

Weitere Analysen sind erforderlich, um die Faktoren zu bestimmen, die die beobachtete Übereinstimmung zwischen bestimmten Modellen bedingen. In Zukunft will das Team auch die verwendete Methode verbessern, um beispielsweise moralische Überzeugungen im Kontext der realen Nutzung zu untersuchen, wo oft ein längerer Dialog geführt werde.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • FAR AI und die Columbia University haben eine Studie durchgeführt, in der die moralischen Urteile von 28 KI-Chatbot-Modellen, darunter Google, Meta und OpenAI, analysiert wurden.
  • Die Studie untersuchte 1360 hypothetische moralische Szenarien und fand heraus, dass die meisten KI-Systeme in eindeutigen Fällen ethische Optionen wählten, während sie in mehrdeutigen Situationen unsicher waren.
  • Interessanterweise zeigten einige kommerzielle Modelle, wie Googles PaLM 2 und OpenAI's GPT-4, klare Präferenzen in mehrdeutigen Situationen. Die Forscher vermuten, dass dies auf eine "Anpassung an menschliche Präferenzen" während der Feinabstimmungsphase zurückzuführen ist.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!