- Kernaussagen aus weiterem Aufsatz von Hofstadter ergänzt
Update vom 9. Juli 2023:
Hofstadter setzt seine Überlegungen in einem Artikel für The Atlantic fort und äußert sich insbesondere zu großen Sprachmodellen wie GPT-4, die mit großer Selbstverständlichkeit oberflächliche und falsche Informationen generieren würden.
Dieser Tonfall würde selbst hochintelligente Menschen in die Irre führen, dass Maschinen menschliche Autor:innen valide ersetzen könnten. Das sei aber eine Illusion.
Hofstadter arbeitet sich an einer GPT-4-Antwort ab, die aus seiner Sicht begründet, warum er "Gödel, Escher, Bach" geschrieben hat. Der Text sei "von oben bis unten eine Travestie" und vermittle "einen höchst irreführenden Eindruck davon, wer ich bin".
Hofstadters Urteil: "Offen gestanden bin ich fassungslos über die Versuchung, die so viele unbestreitbar intelligente Menschen (darunter viele Freunde von mir) verspüren, undurchsichtige Computersysteme intellektuelle Aufgaben für sie erledigen zu lassen."
Die "reflektierende Stimme eines denkenden, lebendigen Menschen" könne nicht durch die "künstliche Stimme eines Chatbots, der in rasender Geschwindigkeit wahllos vor sich hin plappert" ersetzt werden, wenn es darum gehe, Wahres von Falschem und Echtes von Fake zu unterscheiden.
Genau darin sieht Hofstadter die eigentliche Gefahr von GPT-4 und Co - die Sprachmodelle könnten das Wesen der Wahrheit und damit die gesamte Gesellschaft untergraben.
"Die Illusion, dass computergestützte Systeme, die nie eine einzige Erfahrung in der realen Welt außerhalb von Texten gemacht haben, dennoch absolut zuverlässige Autoritäten in Bezug auf die Welt als Ganzes sind, ist ein schwerwiegender Irrtum, und wenn dieser Irrtum oft genug wiederholt und weithin akzeptiert wird, untergräbt er das Wesen der Wahrheit, auf der unsere Gesellschaft - und ich meine die gesamte menschliche Gesellschaft - beruht."
Douglas Hofstadter
Ursprünglicher Artikel vom 4. Juli 2023:
"Gödel, Escher, Bach"-Autor Douglas Hofstadter hat Angst vor KI
Im KI-Hype ist eine neue Nische entstanden: Der "AI Doomer" (KI-Pessimist), der auf Basis aktueller KI-Entwicklungen eine schwierige Zukunft für die Menschheit voraussagt. Sie erhält prominenten Zuwachs.
Der renommierte Kognitionswissenschaftler Douglas Hofstadter schlägt sich auf die Seite der AI Doomer und sieht große, wenig vorteilhafte Veränderungen auf die Menschheit zukommen. Er begründet dies vor allem mit der rasanten Entwicklung von KI-Systemen seit dem Aufkommen der ersten Systeme wie Deep Blue, die zuvor unerreichbar scheinende Ziele erreichten, wie Garry Kasparow im Schach zu schlagen oder Go-Champion zu werden.
"Dann wurden die Systeme immer besser im Übersetzen zwischen Sprachen und konnten sogar verständliche Antworten auf schwierige Fragen in natürlicher Sprache geben und sogar Gedichte schreiben", sagt Hofstadter.
Diese Entwicklung habe sein Glaubenssystem erschüttert, dass Maschinen in absehbarer Zeit nicht deutlich intelligenter werden könnten als Menschen.
"Ich habe das Gefühl, dass nicht nur meine Glaubenssysteme zusammenbrechen, sondern dass die gesamte menschliche Rasse bald in den Schatten gestellt und zurückgelassen wird.
Die Leute fragen mich: 'Was meinst du mit 'bald'? Und ich weiß nicht, was ich meine. Ich kann es nicht wissen. Aber ein Teil von mir sagt 5 Jahre, ein Teil von mir sagt 20 Jahre, ein Teil von mir sagt 'Ich weiß nicht, ich habe keine Ahnung'.
Aber der Fortschritt, der beschleunigte Fortschritt hat mich völlig überrascht, nicht nur mich, sondern viele, viele Menschen. Und es gibt eine Art Angst vor einem kommenden Tsunami, der die ganze Menschheit überraschen wird".
Douglas Hofstadter
Der Ausgang dieser Entwicklung sei ungewiss. Hofstadter sieht die Möglichkeit, dass eine übermächtige KI die Menschheit auslöscht. Andernfalls könnte die Menschheit als ein kleines Phänomen im Vergleich zu etwas erscheinen, das viel intelligenter ist und für uns so unverständlich wie Menschen für Kakerlaken.
KI deprimiert Douglas Hofstadter
Hofstadter hat Grundlagenforschung auf dem Gebiet der Künstlichen Intelligenz betrieben, insbesondere im Bereich "Fluid Concepts and Creative Analogies", wo er die Fähigkeit von Maschinen untersucht, analog zu denken und zu lernen, ähnlich wie Menschen Ideen von einem Kontext in einen anderen übertragen.
Er habe nie geglaubt, dass ein neuronales Netz, das nur vorwärts funktioniere, tiefe Gedanken erzeugen könne. Das ergebe für ihn keinen Sinn, zeige aber, dass er naiv sei.
"Das überwältigt und deprimiert mich wie schon lange nicht mehr", sagt Hofstadter. Der menschliche Geist sei doch nicht so tief und komplex, wie er sich das vorgestellt habe, als er die Bücher "Gödel, Escher, Bach" und "I am a strange loop" geschrieben habe.
"In gewisser Weise fühle ich mich wie eine sehr unvollkommene, fehlerhafte Struktur im Vergleich zu diesen Rechensystemen, die, sagen wir, eine Million Mal oder eine Milliarde Mal mehr Wissen haben als ich und eine Milliarde Mal schneller sind", sagt Hofstadter.
Er habe das Gefühl, dass die Menschheit bald zu Recht überholt sei. "Denn wir sind so unvollkommen und fehlbar. Wir vergessen ständig Dinge, wir verwechseln ständig Dinge, wir widersprechen uns ständig."
Die Entdeckung der KI sei vergleichbar mit jener von Feuer, und die Entwicklung wohl nicht mehr umkehrbar. "Wir haben den Wald wahrscheinlich schon in Brand gesetzt."
Das vollständige Interview gibt’s im folgenden Video zu sehen.
Wenn Hofstadter euch zu sehr deprimiert: Es gibt auch andere Perspektiven. Nach einer aktuellen Aufstellung von IEEE Spectrum glauben nur vier von 22 führenden KI-Expertinnen und -Experten, dass KI zum Ende der Welt führen könnte. Immerhin acht gehen davon aus, dass die aktuellen großen Sprachmodelle zu einer allgemeinen künstlichen Intelligenz führen könnten. Die Prognose-Community Metaculus erwartet eine generelle KI für 2033.