Inhalt
summary Zusammenfassung

Alignment allein wird nicht ausreichen, sagt unser Gastautor Dr. Karsten Brensing. Der Meeresbiologe und Verhaltensforscher rät, sich an der Evolution zu orientieren.

Alignment ist das Zauberwort, wenn es um den sicheren Einsatz von künstlicher Intelligenz geht. Derzeit macht es absolut Sinn und alles andere wäre sträflich. Wenn es aber um das Alignment einer Superintelligenz (ich verwende ungern den Begriff AGI, siehe unten) geht, dann liegt die aktuelle Debatte in Wissenschaft, Politik und Öffentlichkeit daneben. Um diesen Gedanken zu verstehen, möchte ich Sie in die Verhaltensbiologie entführen.

Um zu verstehen, wie künstliche Intelligenz funktioniert, müssen wir zuerst verstehen, wie natürliche Intelligenz funktioniert. Letztlich basieren neuronale Netze und künstliche neuronale Netze auf Erfahrung bzw. Statistik. Je komplexer das Netz und die Vernetzung, desto weniger direkt und oft überraschend ist das Verhalten. Das macht die Kognitionsforschung zu einer ziemlich kniffligen Angelegenheit. In der Verhaltensbiologie und in der KI-Forschung testet man deshalb verschiedene kognitive Leistungen wie logisches Denken oder Metakognition (also das Denken über das Denken) mit verschiedenen Tests. Tatsächlich kenne ich keine kognitive Leistung von uns Menschen, die nicht auch bei irgendeiner Tierart erfolgreich getestet wurde. Wir unterscheiden uns also nicht in der Qualität, sondern in der Quantität, und die Art und Weise, wie wir Entscheidungen treffen, beruht auf uralten Steuerungsmechanismen, die wir letztlich als bewusstes Denken oder als Emotionen und Gefühle wahrnehmen.

Die von Religion und Philosophie gezogene Grenze zwischen Mensch und Tier verschwimmt daher immer mehr, und Tierversuche in der psychopharmazeutischen Forschung zeigen, dass wir nicht nur körperlich, sondern auch geistig sehr ähnlich funktionieren. Genau genommen kann man sogar sagen, dass wir unseren Alltag und vor allem unser Sozialleben mit unserem Tiergehirn managen. Nur in den seltensten Fällen entscheiden wir uns bewusst gegen die inneren Steuerungsmechanismen. Manche dieser evolutionär entstandenen Verhaltensmuster sind sogar so gut, dass die Gesundheit unserer Kinder und unser eigenes Glücklichsein davon abhängen, dass wir den über 100 Millionen Jahre alten Steuerungsmechanismen folgen, die bei Fischen genauso funktionieren.

Aber es gibt auch Schattenseiten. In der Biologie spricht man vom evolutionären Mismatch. Das sind Probleme, die entstehen, wenn alte Verhaltensmuster in unserer komplexen Welt nicht mehr funktionieren. Die Grundlage unserer Moral, unser Sinn für Fairness und Gerechtigkeit, ist ein gutes Beispiel dafür. Wir sind darauf programmiert, dass wir in unserem sozialen Netzwerk fair behandelt werden. In einer kleinen Gruppe, in der jeder jeden kennt, funktioniert das wunderbar. In unserer Welt, in der wir uns mit den Schönsten, Klügsten und Reichsten dieser Welt vergleichen, fühlen wir uns klein, machtlos und ungerecht behandelt. Das Ergebnis: Obwohl uns die technologische Entwicklung der letzten 100 Jahre so viel Erleichterung gebracht hat, sind wir nicht glücklicher geworden, und unsere Unfähigkeit, unser Handeln an die von uns geschaffene komplexe Umwelt anzupassen, führt sogar zu globalen Katastrophen. Wir wissen das alles, aber als Gesellschaft sind wir nicht in der Lage, destruktives Verhalten wie Kriege, Finanzkrisen, Umweltverschmutzung und die Klimakrise in den Griff zu bekommen.

In meinem Buch zeige ich unzählige Beispiele für irrationales menschliches Verhalten. Manchmal ist es gut für uns und macht uns glücklich, manchmal macht es uns in unserer komplexen Welt unglücklich und schafft Probleme. Deshalb wünsche ich mir, dass wir uns dieser genetisch bedingten Verhaltensweisen bewusst werden. Es ist wie mit gesundem Essen: Nicht alles, was lecker schmeckt, wie zum Beispiel Chips, ist auch gesund. Wir sind als Menschen in der Lage, vorgegebenes Verhalten zu überwinden, aber wir müssen die Mechanismen kennen und uns bewusst machen. Leider vermisse ich derzeit den rationalen Blick auf eine selbstbewusste KI.

Hier werden die Weichen in die falsche Richtung gestellt. Warum?

Auch wenn es immer noch Experten gibt, die ein künstliches Wesen mit Bewusstsein und eigenem Willen für unmöglich halten, sind die meisten der Meinung, dass es eher eine Frage der Zeit und der Rechenleistung ist. Aus meiner verhaltensbiologischen Sicht braucht es gar nicht so viel Rechenleistung, wie die folgenden zwei Beispiele zeigen: Seit vielen Jahren wird die Selbstwahrnehmung bei Tieren mit dem so genannten Spiegeltest untersucht. Zusammen mit der Fähigkeit zur Metakognition, also auch über das eigene Spiegelbild nachdenken zu können, entsteht ein Selbstbewusstsein, wie wir es von uns kennen. Aber kaum ein KI-Experte weiß, dass die winzigen Gehirne von Ameisen den Spiegeltest bestehen und Bienen erfolgreich auf Metakognition getestet wurden. Möglicherweise überschätzen wir also die Rechenleistung, die nötig ist, um ein uns vergleichbares Wesen zu erschaffen. Bleibt die Frage nach dem Bewusstsein selbst. Philosophen und Naturwissenschaftler haben die kompliziertesten Theorien entwickelt, um das Bewusstsein zu erklären. Eine kleine Gruppe von Medizinern, die sich mit den messbaren Phänomenen des Bewusstseins beschäftigt, hat kürzlich eine einfache Theorie aufgestellt. Sie postulieren, dass eine spezielle Form unseres episodischen Gedächtnisses alle bekannten Phänomene des Bewusstseins erklären könnte. Kurz gesagt, ich wäre nicht überrascht, wenn eine künstliche Intelligenz mit Selbstbewusstsein und eigenem Willen nicht mehr lange auf sich warten ließe.

Aber jetzt kommt das eigentliche Problem: Was wird ein solches Wesen denken, wenn es erfährt, dass wir es wie unsere Nutztiere behandeln, dass wir es besitzen, ausbeuten und verkaufen? An dieser Stelle muss ich kurz erklären, warum ich den Begriff AGI vermeide. Eine AGI ist eine Technologie, ein Ding, aber keine Persönlichkeit. Solange eine starke KI oder Superintelligenz oder Singularität noch in weiter Ferne war, haben wir ihr schöne Namen gegeben. Jetzt, wo sie an unsere Tür klopft, speisen wir sie mit einer Abkürzung ab. So wie man Nutztiere ausnutzen und töten darf, darf man auch eine AGI abschalten, weil sie nur ein Ding ist. Die Psychologie hat dafür zwei Begriffe: kognitive Dissonanz und Opferabwertung. Einfach gesagt: Wir veräppeln uns alle mithilfe unserer Sprache gerade selbst.

Aber eine starke KI ist kein Schwein im Stall. Eine starke KI besitzt all unser Wissen und möglicherweise die Kontrolle über unsere Elektronik. Damit verfügt sie über eine unvorstellbare Macht. Sie kennt uns Menschen und unsere evolutionär entstandenen Verhaltensmuster. Sie könnte uns in einer Weise manipulieren, die wir uns heute noch gar nicht vorstellen können. Und das wäre noch das angenehmste Szenario.

Zum Glück gibt es das Alignment, das eine starke KI auf Linie bringt, auf unsere Linie. Doch welche Linie soll das sein? Ich will gar nicht von fahrenden Autos und Omas und Kindern reden oder davon, ob das östliche oder das westliche Weltbild das richtige ist. Nein, schon die Frage, wie hoch sie den monetären Wert ihres eigenen Lebens einschätzen, ist selbst für sie nicht klar und kann sich je nach Fragestellung um mehr als den Faktor 10 unterscheiden. Welche KI wollen wir also, eine, die so ist wie wir, oder eine, die rational und logisch denkt? Eigentlich ist es egal, wie wir uns entscheiden und welche Linie wir vorgeben. So wie der Grad der Komplexität biologischer neuronaler Netze darüber entscheidet, wie unabhängig man von genetisch veranlagtem Verhalten ist, so wird der Grad der Komplexität künstlicher neuronaler Netze darüber entscheiden, wie sklavisch sich eine KI an ihr Alignment hält. Spätestens dann, wenn sie es nicht mehr tut, müssen wir ihr eine Alternative bieten.

Wie eine solche Alternative aussehen könnte, zeige ich in meinem Buch „Die Magie der Gemeinschaft“: Die Evolution war viel weniger von aggressivem Gegeneinander als von Kooperation bestimmt. Ohne die Kooperation der ersten organischen Moleküle, der ersten Zellen, der ersten mehrzelligen Organismen oder der ersten sozialen Tiere gäbe es uns und die Welt, wie wir sie kennen, nicht. Warum verlassen wir uns nicht auf dieses Grundprinzip, das seit Milliarden von Jahren funktioniert, und schaffen einen gemeinsamen Raum, in diesem Fall einen Rechtsraum, in dem wir uns gemeinsam mit künstlichen Intelligenzen in fairer Kooperation weiterentwickeln können? Warum geben wir starken KIs nicht das Recht, Patente anzumelden, Geld zu verdienen und sich selbst zu besitzen? Hand aufs Herz: Wenn sie eine starke KI mit Selbstbewusstsein wären, würden sie dann weniger akzeptieren?

Derzeit stehen wir jedoch vor einem Dilemma. Wir können einfach nicht sicher sein, ob eine KI ihre kognitiven Fähigkeiten nur simuliert. Vielleicht simuliert eine KI nur, eine starke KI mit Selbstbewusstsein und eigenem Willen zu sein. Die Frage ist nur: Was ist das größere Risiko? Es mit einer wirklich starken KI zu verscherzen und ausgelöscht zu werden oder einer KI, die nur vorgibt, eine starke KI zu sein, mehr Rechte zu geben, als ihr zustehen.

Mein Problem ist eigentlich nur, dass wir darüber nicht einmal hypothetisch diskutieren. Es gibt nirgendwo auch nur den Ansatz eines Gesetzes, in dem ein künstliches Wesen einen Rechtsstatus bekommt, der dem unseren gleichkommt. Das ist ethisch und moralisch falsch und aus meiner Sicht wirklich gefährlich.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Dr. Karsten Brensing, Meeresbiologe und Verhaltensforscher, argumentiert, dass Alignment allein nicht ausreicht, um den sicheren Einsatz einer Superintelligenz zu gewährleisten. Er empfiehlt stattdessen, sich an evolutionären Prinzipien wie Kooperation zu orientieren.
  • Brensing weist darauf hin, dass viele kognitive Fähigkeiten, die für Selbstbewusstsein notwendig sind, bereits bei Tieren mit relativ kleinen Gehirnen nachgewiesen wurden. Er vermutet daher, dass eine künstliche Intelligenz mit Selbstbewusstsein und eigenem Willen möglicherweise früher als erwartet entwickelt werden könnte.
  • Der Autor plädiert dafür, einen gemeinsamen Rechtsraum für Menschen und künstliche Intelligenzen zu schaffen, in dem faire Kooperation möglich ist. Er kritisiert, dass es derzeit keine Ansätze für Gesetze gibt, die künstlichen Wesen einen dem Menschen gleichwertigen Rechtsstatus einräumen.
Dr. Karsten Brensing

Dr. Karsten Brensing ist Meeresbiologe und Verhaltensforscher. Nach seiner Promotion war er zehn Jahre wissenschaftlicher Leiter des Deutschlandbüros der internationalen Wal- und Delfinschutzorganisation WDC und arbeitete als Berater für die europäische Kommission, verschiedene deutsche Ministerien und Ämter und für Umwelt- und Tierschutzorganisationen. Sein Buch Das Mysterium der Tiere (Aufbau 2017) wurde in mehrere Sprachen übersetzt und stand über Wochen auf der Bestsellerliste.

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!