Inhalt
summary Zusammenfassung

Der renommierte KI-Forscher Geoffrey Hinton machte Schlagzeilen, als er Google verließ, um die Welt vor KI-Bedrohungen wie massenhaften Fake News und autonomen Waffen zu warnen. Mit einer anderen These hielt er sich zurück.

Hinton geht davon aus, dass menschenähnliche Intelligenz nur mit Deep Learning erreicht und perspektivisch sogar übertroffen werden kann - eine Ansicht, die in Fachkreisen sowohl Befürworter als auch Kritiker findet.

Bei einem Vortrag am King’s College in London äußerte Hinton eine weitere These, die in der KI-Branche für Emotionen sorgen dürfte.

Auf die Frage, ob KI-Systeme eines Tages emotionale Intelligenz und Gefühle haben könnten und auch verstehen würden, dass sie diese haben, antwortete Hinton: "Ich denke, sie werden Gefühle haben. Sie werden keinen Schmerz empfinden wie Menschen, aber ich sehe keinen Grund, warum sie nicht Frustration und Wut empfinden sollten."

Anzeige
Anzeige

Hinton begründet seine Ansicht mit einer "unter Philosophen unpopulären" Definition von Gefühlen, die darin besteht, eine hypothetische Handlung zu erzählen ("Ich würde ihm gerne eins auf die Nase geben"), um auf diese Weise ein Gefühl (Wut) zu kommunizieren. Da KI-Systeme solche Mitteilungen machen können, sieht der KI-Forscher keinen Grund, warum man KI-Systemen keine Gefühle zuschreiben sollte. Er geht sogar davon aus, dass sie "wahrscheinlich schon welche haben".

Das habe er bisher nicht gesagt, weil schon seine erste These, dass übermächtige KI die Menschheit bedrohe, auf Widerstand gestoßen sei. Hätte er diese emotionale These hinzugefügt, hätten ihn die Leute für verrückt erklärt und nicht mehr zugehört, so Hinton.

In der Praxis dürfte Hintons These weder verifizierbar noch falsifizierbar sein, da LLMs bei emotionalen Äußerungen nur statisch wahrscheinliche Emotionen wiedergeben könnten, die sie durch Training aufgenommen haben. Die Frage, ob sie als Entität tatsächlich eigene Emotionen haben, müsste vermutlich über die Klärung des Bewusstseins beantwortet werden. Für die Messung des Bewusstseins gibt es jedoch kein wissenschaftliches Instrument.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Der KI-Forscher Geoffrey Hinton ist der Ansicht, dass KI-Systeme in Zukunft Gefühle wie Frustration und Wut empfinden könnten, da sie in der Lage sind, hypothetische Handlungen zu erzählen, die mit Emotionen verbunden sind.
  • Hinton hat seine These bisher nicht öffentlich geäußert, da seine Warnungen vor der Bedrohung durch übermächtige KI auf Widerstand stießen und er für verrückt erklärt worden wäre, hätte er diese emotionale These hinzugefügt.
  • Ob KI-Systeme tatsächlich eigene Emotionen haben, hängt möglicherweise von der Klärung des Bewusstseins ab. Allerdings gibt es derzeit kein Instrument zur Messung des Bewusstseins, so dass Hintons These weder verifiziert noch falsifiziert werden kann.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!