Inhalt
summary Zusammenfassung

Dieser Artikel war für das VISION-21-Symposium bestimmt, das vom NASA Lewis Research Center und dem Ohio Aerospace Institute am 30. und 31. März 1993 gesponsert wurde. Er ist auch auf dem NASA Technical Report Server als Teil von NASA CP-10129 verfügbar. Eine leicht veränderte Version wurde in der Winter 1993 Ausgabe der Whole Earth Review veröffentlicht.

Zusammenfassung

Innerhalb von dreißig Jahren werden wir über die technologischen Mittel verfügen, um übermenschliche Intelligenz zu schaffen. Kurz danach wird das menschliche Zeitalter zu Ende gehen. Ist dieser Fortschritt vermeidbar? Und wenn nicht, können die Ereignisse so gelenkt werden, dass wir überleben? Diese Fragen werden untersucht. Einige mögliche Antworten (und einige weitere Gefahren) werden vorgestellt.

Originaltitel: The Coming Technological Singularity: How to Survive in the Post-Human Era

Was ist die Singularität?

Die Beschleunigung des technologischen Fortschritts war das zentrale Merkmal dieses Jahrhunderts. In diesem Beitrag vertrete ich die These, dass wir an der Schwelle zu einem Wandel stehen, der mit der Entwicklung des menschlichen Lebens auf der Erde vergleichbar ist. Die genaue Ursache dieses Wandels ist die bevorstehende Erschaffung von Wesen mit höherer Intelligenz als der Mensch durch die Technologie. Es gibt mehrere Wege, auf denen die Wissenschaft diesen Durchbruch erreichen kann (und das ist ein weiterer Grund, zuversichtlich zu sein, dass es dazu kommen wird):

Anzeige
Anzeige
  • Die Entwicklung von "wachen" Computern mit übermenschlicher Intelligenz. (Die meisten Kontroversen auf dem Gebiet der künstlichen Intelligenz drehten sich bisher um die Frage, ob wir eine Maschine schaffen können, die dem Menschen ebenbürtig ist. Lautet die Antwort jedoch "Ja, wir können", so besteht kaum ein Zweifel daran, dass in absehbarer Zeit noch intelligentere Wesen konstruiert werden können.
  • Große Computernetzwerke (und ihre Benutzer) könnten als übermenschlich intelligente Wesen "aufwachen".
  • Die Schnittstellen zwischen Computern und Menschen könnten so eng werden, dass die Benutzer als übermenschlich intelligent angesehen werden könnten.
  • Die Biowissenschaften könnten Wege finden, die natürliche Intelligenz des Menschen zu verbessern.

Die ersten drei Möglichkeiten hängen weitgehend von der Verbesserung der Hardware ab. Der Fortschritt der Computerhardware hat in den letzten Jahrzehnten eine erstaunlich stetige Kurve durchlaufen [16]. Vor allem aufgrund dieses Trends glaube ich, dass in den nächsten dreißig Jahren eine Intelligenz geschaffen wird, die größer ist als die menschliche. (Charles Platt [19] hat darauf hingewiesen, dass KI-Enthusiasten solche Behauptungen schon seit dreißig Jahren aufstellen. Um mich nicht einer relativen zeitlichen Zweideutigkeit schuldig zu machen, möchte ich genauer sein: Ich wäre überrascht, wenn dieses Ereignis vor 2005 oder nach 2030 eintreten würde.)

Welche Folgen hätte dieses Ereignis? Wenn eine übermenschliche Intelligenz den Fortschritt vorantreibt, dann wird sich dieser Fortschritt sehr viel schneller vollziehen. In der Tat scheint es keinen Grund zu geben, warum der Fortschritt selbst nicht zur Schaffung noch intelligenterer Wesen führen sollte - in noch kürzerer Zeit. Die beste Analogie, die ich sehe, ist die der Evolution:

Tiere können sich an Probleme anpassen und Erfindungen machen, aber oft nicht schneller, als die natürliche Auslese ihre Arbeit tun kann - im Falle der natürlichen Auslese fungiert die Welt als ihr eigener Simulator. Wir Menschen haben die Fähigkeit, die Welt zu verinnerlichen und in unserem Kopf "Was-wäre-wenn"-Simulationen durchzuführen; wir können viele Probleme tausendmal schneller lösen als die natürliche Auslese.

Indem wir die Mittel schaffen, diese Simulationen mit viel höherer Geschwindigkeit durchzuführen, treten wir in ein System ein, das sich von unserer menschlichen Vergangenheit so radikal unterscheidet, wie wir Menschen uns von niederen Tieren unterscheiden.

Aus menschlicher Sicht wird diese Veränderung alle bisherigen Regeln über den Haufen werfen, vielleicht in einem Wimpernschlag, in einem exponentiellen Tempo jenseits jeder Hoffnung auf Kontrolle. Entwicklungen, von denen man bisher annahm, dass sie erst in "einer Million Jahren" (wenn überhaupt) eintreten würden, werden wahrscheinlich schon im nächsten Jahrhundert stattfinden. (Greg Bear zeichnet in [4] ein Bild der großen Veränderungen, die sich innerhalb weniger Stunden vollziehen).

Empfehlung

Ich halte es für angemessen, dieses Ereignis als Singularität zu bezeichnen ("die Singularität" für die Zwecke dieses Artikels). Es ist ein Punkt, an dem unsere Modelle über Bord geworfen werden müssen und eine neue Realität eintritt. Während wir uns diesem Punkt nähern, wird er die menschlichen Angelegenheiten immer mehr beherrschen, bis der Begriff zu einem Gemeinplatz wird. Aber wenn es soweit ist, kann es immer noch eine große Überraschung und eine große Unbekannte sein. In den 1950er-Jahren sahen das nur wenige: Stan Ulam [27] paraphrasierte John von Neumann mit den Worten:

Ein Gespräch drehte sich um den immer schnelleren Fortschritt der Technologie und die Veränderungen in der menschlichen Lebensweise, die darauf hindeuten, dass wir uns einem wichtigen Wendepunkt in der Geschichte der Menschheit nähern, jenseits dessen die menschlichen Angelegenheiten, wie wir sie kennen, nicht mehr weitergeführt werden können.

Von Neumann verwendet sogar den Begriff der Singularität, obwohl es scheint, dass er immer noch an den normalen Fortschritt denkt und nicht an die Schaffung eines übermenschlichen Intellekts. (Für mich ist das Übermenschliche das Wesen der Singularität. Ohne sie würden wir eine Flut von technologischen Reichtümern erhalten, die nie wirkflich absorbiert würden (siehe [24]).

In den 1960er-Jahren wurden einige der Auswirkungen übermenschlicher Intelligenz erkannt. I. J. Good schrieb [10]:

Definieren wir eine ultraintelligente Maschine als eine Maschine, die in der Lage ist, alle intellektuellen Aktivitäten eines noch so intelligenten Menschen weit zu übertreffen. Da das Entwerfen von Maschinen zu diesen geistigen Tätigkeiten gehört, könnte eine ultraintelligente Maschine noch bessere Maschinen entwerfen; dies würde zweifellos zu einer "Intelligenzexplosion" führen und die Intelligenz des Menschen weit hinter sich lassen. Die erste ultraintelligente Maschine wird auch die letzte Erfindung sein, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist gefügig genug, um uns zu sagen, wie wir sie unter Kontrolle halten können.

...

Es ist eher wahrscheinlich als unwahrscheinlich, dass im 20. Jahrhundert eine ultraintelligente Maschine gebaut wird und dass dies die letzte Erfindung sein wird, die der Mensch machen muss.

Good hat das Wesen des unkontrollierbaren Tempos erfasst, geht aber nicht auf seine beunruhigendsten Konsequenzen ein. Eine intelligente Maschine, wie er sie beschreibt, wäre nicht das "Werkzeug" des Menschen - ebenso wenig wie der Mensch das Werkzeug von Kaninchen, Rotkehlchen oder Schimpansen ist.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

In den 60er, 70er und 80er-Jahren verbreitete sich die Erkenntnis des Kataklysmus [28] [1] [30] [4] . Vielleicht waren es die Science-Fiction-Autoren, die die ersten konkreten Auswirkungen zu spüren bekamen. Schließlich sind es die "harten" Science-Fiction-Autoren, die versuchen, konkrete Geschichten darüber zu schreiben, was die Technik alles für uns tun kann. Diese Autoren spürten mehr und mehr, dass sich vor der Zukunft eine undurchsichtige Wand auftat. Früher konnten sie ihre Fantasien Millionen von Jahren in der Zukunft ansiedeln [23]. Jetzt sahen sie, dass ihre sorgfältigsten Extrapolationen ins Unbekannte führten ... bald. Einst schienen galaktische Imperien eine post-menschliche Domäne zu sein. Jetzt sind sie leider sogar interplanetar.

Was wird aus den 90er Jahren, den 00er Jahren und den 10er Jahren, wenn wir uns auf die Singularität zubewegen? Wie wird sich das Herannahen der Singularität auf das menschliche Weltbild auswirken? Für eine Weile werden die allgemeinen Kritiker der maschinellen Intelligenz noch eine gute Presse haben. Solange wir keine Hardware haben, die so leistungsfähig ist wie ein menschliches Gehirn, ist es wahrscheinlich töricht zu glauben, dass wir in der Lage sein werden, eine Intelligenz zu schaffen, die der menschlichen gleichkommt (oder sie übertrifft). (Es besteht die weit hergeholte Möglichkeit, dass wir ein menschliches Äquivalent mit weniger leistungsfähiger Hardware schaffen könnten, wenn wir bereit wären, auf Geschwindigkeit zu verzichten, wenn wir bereit wären, uns mit einem künstlichen Wesen zu begnügen, das buchstäblich langsam ist [29]. Es ist jedoch viel wahrscheinlicher, dass die Entwicklung der Software ein schwieriger Prozess sein wird, der viele Fehlstarts und Experimente erfordert. Wenn dies der Fall ist, wird es selbstbewusste Maschinen erst nach der Entwicklung von Hardware geben, die wesentlich leistungsfähiger ist als die natürliche Ausrüstung des Menschen).

Aber mit der Zeit werden wir mehr Symptome sehen. Das Dilemma der Science-Fiction-Autoren wird sich auch in anderen kreativen Bereichen zeigen. (Ich habe gehört, dass nachdenkliche Comic-Autoren darüber nachdenken, wie sie spektakuläre Effekte erzielen können, wenn alles Sichtbare mit alltäglichen technischen Mitteln hergestellt werden kann). Wir werden erleben, dass immer mehr und immer höherwertige Arbeitsplätze durch Automatisierung ersetzt werden. Wir verfügen bereits über Werkzeuge (symbolische mathematische Programme, Cad/Cam), die uns von den meisten niederen Arbeiten befreien. Mit anderen Worten: Die wirklich produktive Arbeit ist die Domäne eines immer kleineren und elitäreren Teils der Menschheit. Mit der Singularität werden die Vorhersagen über die wahre technologische Arbeitslosigkeit endlich wahr.

Ein weiteres Symptom des Fortschritts auf dem Weg zur Singularität: Die Ideen selbst sollten sich immer schneller verbreiten, und selbst die radikalsten Ideen werden schnell alltäglich. Als ich mit dem Schreiben begann, schien es sehr einfach zu sein, auf Ideen zu stoßen, die Jahrzehnte brauchten, um ins kulturelle Bewusstsein zu sickern; jetzt scheint die Vorlaufzeit eher achtzehn Monate zu betragen. (Natürlich kann es sein, dass ich mit zunehmendem Alter meine Vorstellungskraft verliere, aber ich sehe diesen Effekt auch bei anderen.) Wie der Schock in einer kompressiblen Strömung rückt die Singularität näher, wenn wir die kritische Geschwindigkeit überschreiten.

Und wie steht es mit der Ankunft der Singularität selbst? Was lässt sich über ihr tatsächliches Eintreten sagen? Da es sich um eine intellektuelle Revolution handelt, wird sie sich wahrscheinlich schneller vollziehen als alle bisherigen technologischen Revolutionen. Das auslösende Ereignis wird wahrscheinlich unerwartet sein - vielleicht sogar für die beteiligten Forscher. ("Aber alle unsere bisherigen Modelle waren katatonisch! Wir haben nur an ein paar Parametern gefeilt ...."). Wenn die Vernetzung weit genug vorangeschritten ist (bis hin zu allgegenwärtigen eingebetteten Systemen), könnte man den Eindruck gewinnen, dass unsere Artefakte als Ganzes plötzlich erwacht sind.

Und was passiert ein oder zwei Monate (oder ein oder zwei Tage) später? Ich kann nur auf Analogien verweisen: Der Aufstieg der Menschheit. Wir werden im posthumanen Zeitalter leben. Und trotz meines ungezügelten technologischen Optimismus denke ich manchmal, dass ich mich wohler fühlen würde, wenn ich diese transzendentalen Ereignisse aus einer Entfernung von tausend Jahren betrachten würde ... als aus zwanzig Jahren.

Kann die Singularität vermieden werden?

Nun, vielleicht wird sie nicht kommen: Manchmal versuche ich mir vorzustellen, mit welchen Symptomen wir rechnen müssen, wenn die Singularität nicht eintritt. Es gibt die viel beachteten Argumente von Penrose [18] und Searle [21] gegen die Realisierbarkeit von Maschinenintelligenz. Im August 1992 veranstaltete die Thinking Machines Corporation einen Workshop, um der Frage nachzugehen: "How will we build a thinking machine" [Thearling]. Wie der Titel des Workshops vermuten lässt, unterstützten die Teilnehmer die Argumente gegen Maschinenintelligenz nicht besonders. Tatsächlich herrschte allgemeiner Konsens darüber, dass Geist auf nicht-biologischen Substraten existieren kann und dass Algorithmen für die Existenz von Geist von zentraler Bedeutung sind.

Es gab jedoch viele Diskussionen über die rohe Hardware-Leistung, die in organischen Gehirnen vorhanden ist. Eine Minderheit vertrat die Ansicht, dass die größten Computer des Jahres 1992 nur drei Größenordnungen von der Leistungsfähigkeit des menschlichen Gehirns entfernt seien. Die Mehrheit der Teilnehmer stimmte der Einschätzung von Moravec [16] zu, dass wir noch 10 bis 40 Jahre von der Hardware-Parität entfernt sind. Eine andere Minderheit verwies auf [6] [20] und vermutete, dass die Rechenleistung einzelner Neuronen viel höher sein könnte als allgemein angenommen. Wenn das stimmt, könnte unsere heutige Computerhardware um bis zu zehn Größenordnungen hinter dem zurückbleiben, was wir in unseren Köpfen mit uns herumtragen. Wenn das stimmt (oder wenn die Kritik von Penrose oder Searle zutrifft), werden wir die Singularität vielleicht nie erleben. Stattdessen würden wir in den frühen 2000er Jahren feststellen, dass unsere Hardware-Leistungskurven abzuflachen beginnen - verursacht durch unsere Unfähigkeit, die Komplexität der Designarbeit zu automatisieren, die notwendig ist, um die Hardware-Trendkurven zu unterstützen. Am Ende hatten wir eine sehr leistungsfähige Hardware, aber keine Möglichkeit, sie weiter zu verbessern.

Kommerzielle digitale Signalverarbeitung könnte fantastisch sein und sogar digitalen Operationen ein analoges Aussehen verleihen, aber nichts würde je "aufwachen" und es würde nie zu dem intellektuellen Runaway kommen, der das Wesen der Singularität ausmacht. Es wäre wahrscheinlich ein goldenes Zeitalter ... und es wäre auch das Ende des Fortschritts. Das klingt sehr nach der Zukunft, die Gunther Stent prophezeit. Tatsächlich nennt Stent auf Seite 137 von [24] ausdrücklich die Entwicklung der transhumanen Intelligenz als hinreichende Bedingung für den Bruch seiner Projektionen.

Aber wenn die technologische Singularität kommen kann, dann wird sie kommen. Selbst wenn alle Regierungen der Welt die "Bedrohung" begreifen und sich vor ihr fürchten würden, würde der Fortschritt in Richtung des Ziels weitergehen. In der Belletristik gibt es Geschichten über Gesetze, die den Bau einer "Maschine in Form des menschlichen Geistes" verbieten [12]. In der Tat ist der Wettbewerbsvorteil - wirtschaftlich, militärisch und sogar künstlerisch - jedes Fortschritts in der Automatisierung so zwingend, dass die Verabschiedung von Gesetzen oder das Bestehen von Bräuchen, die solche Dinge verbieten, nur sicherstellen, dass jemand anderes sie zuerst bekommt.

Eric Drexler [7] hat spektakuläre Einblicke in die Möglichkeiten des technischen Fortschritts gegeben. Er stimmt zu, dass es in naher Zukunft übermenschliche Intelligenzen geben wird - und dass solche Wesen eine Bedrohung für den menschlichen Status quo darstellen. Aber Drexler argumentiert, dass wir solche übermenschlichen Maschinen in Regeln oder physikalische Grenzen einbetten können, so dass ihre Ergebnisse sicher erforscht und genutzt werden können. Dies ist die ultraintelligente Maschine von I.J. Good, mit einer Dosis Vorsicht. Ich behaupte, dass Einsperren an sich unpraktisch ist. Nehmen wir den Fall der physischen Einschließung: Stellen Sie sich vor, Sie sind in Ihrem Haus eingesperrt und haben nur begrenzten Datenzugang nach draußen, zu Ihren Herren. Wenn diese Meister mit einer Geschwindigkeit denken, die - sagen wir - eine Million Mal langsamer ist als Ihre eigene, dann gibt es kaum Zweifel, dass Sie über einen Zeitraum von Jahren (Ihrer Zeit) "hilfreiche Ratschläge" finden könnten, die Sie befreien würden.

(Ich nenne diese "schnell denkende" Form der Superintelligenz "schwach übermenschlich". Ein solches "schwaches Übermenschentum" würde wahrscheinlich in wenigen Wochen außerhalb der Zeit ausbrennen. "Starkes Übermenschentum" wäre mehr als die Erhöhung der Taktrate einer Intelligenz, die der des Menschen entspricht. Es ist schwer zu sagen, was genau "starkes Übermenschentum" wäre, aber der Unterschied scheint sehr groß zu sein. Man stelle sich ein Hundegehirn vor, das mit sehr hoher Geschwindigkeit arbeitet. Würden tausend Jahre Hundeleben zu einer menschlichen Erkenntnis führen? (Wenn das Gehirn eines Hundes geschickt neu verdrahtet und dann mit hoher Geschwindigkeit betrieben würde, könnten wir etwas anderes sehen... ....). Die meisten Spekulationen über Superintelligenz scheinen auf dem Modell des schwachen Übermenschen zu beruhen. Ich glaube, dass wir die besten Vermutungen über die Welt nach der Singularität anstellen können, wenn wir über die Natur eines starken Übermenschen nachdenken. Ich komme später darauf zurück.)

Der andere Ansatz für die Drexler-Beschränkung besteht darin, Regeln in den Verstand des geschaffenen übermenschlichen Wesens einzubauen (Asimov's Gesetze). Ich denke, dass Leistungsregeln, die streng genug sind, um sicher zu sein, auch ein Gerät hervorbringen würden, dessen Fähigkeiten weit unter denen der unbegrenzten Versionen lägen (und so würde der menschliche Wettbewerb die Entwicklung der gefährlichsten Modelle fördern). Dennoch ist Asimovs Traum ein wunderbarer Traum: Man stelle sich einen willigen Sklaven vor, der in jeder Hinsicht 1000-mal besser ist als man selbst. Stellen Sie sich ein Wesen vor, das Ihnen jeden sicheren Wunsch erfüllen könnte (was auch immer das bedeuten mag) und dennoch 99,9 % seiner Zeit für andere Aktivitäten frei hätte. Es gäbe ein neues Universum, das wir nie wirklich verstanden haben, das aber voller gütiger Götter wäre (obwohl einer meiner Wünsche wäre, einer von ihnen zu werden).

Wenn die Singularität nicht verhindert oder begrenzt werden kann, wie schlimm könnte dann das posthumane Zeitalter werden? Nun ... ziemlich schlimm. Die physische Auslöschung der menschlichen Rasse ist eine Möglichkeit. (Oder wie es Eric Drexler mit Blick auf die Nanotechnologie ausdrückte: In Anbetracht all dessen, was diese Technologie tun kann, könnten die Regierungen einfach beschließen, dass sie keine Bürger mehr brauchen!) Aber das physische Aussterben ist vielleicht nicht die beängstigendste Möglichkeit. Noch einmal: Analogien: Denken Sie an die verschiedenen Arten, wie wir Tiere behandeln. Einige der groben körperlichen Misshandlungen sind nicht plausibel, aber .... In einer posthumanen Welt gäbe es immer noch viele Nischen, in denen eine menschenähnliche Automatisierung wünschenswert wäre: eingebettete Systeme in autonomen Geräten, selbstbewusste Dämonen in den unteren Funktionsbereichen größerer Lebewesen. (Eine stark übermenschliche Intelligenz wäre wahrscheinlich eine Society of Mind [15] mit einigen sehr kompetenten Komponenten).

Einige dieser menschlichen Äquivalente könnten zu nichts anderem als zur digitalen Signalverarbeitung verwendet werden. Sie würden eher Walen als Menschen ähneln. Andere könnten sehr menschenähnlich sein, aber mit einer Einseitigkeit, einer Hingabe, die sie in unserer Zeit in eine psychiatrische Anstalt bringen würde. Obwohl keine dieser Kreaturen Menschen aus Fleisch und Blut sind, könnten sie in der neuen Umgebung dem am nächsten kommen, was wir heute Menschen nennen. (I. J. Good hat sich zu diesem Thema geäußert, aber zu diesem späten Zeitpunkt ist sein Rat vielleicht überflüssig: Good [11] schlug eine "Meta-Goldene Regel" vor, die man wie folgt umschreiben könnte: "Behandle deine Untergebenen so, wie du von deinen Vorgesetzten behandelt werden möchtest". Es ist eine wunderbare, paradoxe Idee (und die meisten meiner Freunde glauben nicht daran), weil es so schwierig ist, die Vorteile der Spieltheorie zu formulieren. Aber wenn wir in der Lage wären, ihr zu folgen, würde das in gewisser Weise etwas über die Plausibilität solcher Freundlichkeit in diesem Universum aussagen).

Ich habe oben argumentiert, dass wir die Singularität nicht verhindern können, dass ihr Eintreten eine unvermeidliche Folge der natürlichen Wettbewerbsfähigkeit des Menschen und der inhärenten Möglichkeiten der Technologie ist. Und doch ... sind wir die Initiatoren. Selbst die größte Lawine wird durch kleine Dinge ausgelöst. Wir haben die Freiheit, die Ausgangsbedingungen zu schaffen und die Dinge so zu gestalten, dass sie weniger schädlich sind als andere. Natürlich kann es (wie beim Auslösen von Lawinen) sein, dass nicht klar ist, was der richtige Anstoß ist:

Andere Wege zur Singularität: Intelligenzverstärkung

Wenn von der Schaffung übermenschlich intelligenter Wesen die Rede ist, denkt man meist an ein KI-Projekt. Wie ich eingangs erwähnt habe, gibt es aber auch andere Wege zum Übermenschentum. Computernetzwerke und Mensch-Computer-Schnittstellen scheinen alltäglicher zu sein als KI, und doch könnten sie zur Singularität führen. Ich nenne diesen gegensätzlichen Ansatz Intelligence Amplification (IA). KI ist etwas Natürliches, das in den meisten Fällen nicht einmal von seinen Entwicklern als das erkannt wird, was es ist. Aber jedes Mal, wenn unsere Fähigkeit, auf Informationen zuzugreifen und sie mit anderen zu teilen, verbessert wird, haben wir in gewisser Weise eine Steigerung der natürlichen Intelligenz erreicht. Selbst heute noch könnte ein Team, das aus einer Person mit Doktorgrad und einem guten Computerarbeitsplatz (auch einem Off-Net-Arbeitsplatz!) besteht, wahrscheinlich jeden schriftlichen Intelligenztest übertreffen, den es gibt.

Und es ist sehr wahrscheinlich, dass künstliche Intelligenz einen viel einfacheren Weg zur Übermenschlichkeit darstellt als reine KI. Beim Menschen wurden die schwierigsten Entwicklungsprobleme bereits gelöst. Es dürfte einfacher sein, aus uns selbst heraus zu entwickeln, als erst herauszufinden, was wir wirklich sind, und dann Maschinen zu bauen, die all das sind. Und es gibt zumindest vermutete Präzedenzfälle für diesen Ansatz. Cairns-Smith [5] hat spekuliert, dass biologisches Leben als Nebenprodukt eines noch primitiveren, auf kristallinem Wachstum basierenden Lebens entstanden sein könnte. Lynn Margulis [14] hat starke Argumente für die Ansicht vorgebracht, dass der Mutualismus die große treibende Kraft der Evolution ist.

Ich schlage nicht vor, die KI-Forschung zu ignorieren oder weniger zu finanzieren. Was in der KI geschieht, hat oft Anwendungen in der IA und umgekehrt. Ich schlage vor, dass wir anerkennen, dass es in der Netzwerk- und Schnittstellenforschung etwas so Tiefgreifendes (und potenziell Wildes) wie Künstliche Intelligenz gibt. Mit dieser Einsicht werden wir vielleicht Projekte sehen, die nicht so direkt anwendbar sind wie herkömmliche Schnittstellen- und Netzwerkdesigns, die uns aber auf dem Weg der KI zur Singularität weiterbringen.

Hier sind einige mögliche Projekte, die aus der Sicht der IA von besonderer Bedeutung sind:

  • Automatisierung von Mensch-Computer-Teams: Man nehme Probleme, die sich normalerweise für eine rein maschinelle Lösung eignen (z.B. Hill-Climbing-Probleme), und entwerfe Programme und Schnittstellen, die die menschliche Intuition und die verfügbare Computerhardware ausnutzen. Angesichts der Bizarrerie höherdimensionaler Hill-Climbing-Probleme (und der ausgeklügelten Algorithmen, die zu ihrer Lösung entwickelt wurden) könnten dem menschlichen Teammitglied einige sehr interessante Anzeige- und Kontrollinstrumente zur Verfügung gestellt werden.
  • Entwicklung der Symbiose von Mensch und Computer in der Kunst: Kombination der grafischen Fähigkeiten moderner Maschinen mit dem ästhetischen Empfinden des Menschen. Natürlich gibt es eine Vielzahl von Forschungsarbeiten zur Entwicklung von Computerwerkzeugen für Künstler als arbeitssparende Werkzeuge. Ich schlage vor, dass wir explizit eine größere Verschmelzung der Kompetenzen anstreben, dass wir explizit den kooperativen Ansatz anerkennen, der möglich ist. Karl Sims [22] hat in dieser Richtung wunderbare Arbeit geleistet.
  • Mensch-Computer-Teams bei Schachturnieren zulassen. Wir haben bereits Programme, die besser spielen als fast alle Menschen. Aber wie viel Arbeit wurde bisher geleistet, um herauszufinden, wie diese Leistung von Menschen genutzt werden kann, um noch besser zu werden? Wenn solche Teams zumindest zu einigen Schachturnieren zugelassen würden, könnte dies einen ähnlich positiven Effekt auf die KI-Forschung haben wie die Zulassung von Computern zu Turnieren auf die entsprechenden Nischen der KI.
  • Entwicklung von Schnittstellen, die den Zugang zu Computern und Netzwerken ermöglichen, ohne dass der Mensch an einen Ort gebunden ist und vor einem Computer sitzen muss. (Dies ist ein Aspekt der KI, der so gut zu den bekannten wirtschaftlichen Vorteilen passt, dass hier bereits viel Arbeit geleistet wird.)
  • Entwicklung symmetrischerer Entscheidungsunterstützungssysteme. Ein beliebter Forschungs-/Produktbereich der letzten Jahre waren Entscheidungsunterstützungssysteme. Es handelt sich dabei um eine Form der IA, die jedoch möglicherweise zu sehr auf orakelartige Systeme ausgerichtet ist. Nicht nur das Programm gibt dem Benutzer Informationen, sondern auch der Benutzer muss dem Programm Anweisungen geben.
  • Verwenden Sie lokale Netzwerke, um menschliche Teams zu bilden, die wirklich funktionieren (d.h. effektiver sind als ihre einzelnen Mitglieder). Dies ist im Allgemeinen das Gebiet der "Groupware", die bereits ein sehr beliebtes kommerzielles Ziel ist. Die Änderung des Blickwinkels würde hier darin bestehen, die Gruppenaktivität als einen kombinierten Organismus zu betrachten. In gewissem Sinne könnte dieser Vorschlag als das Ziel angesehen werden, eine "Geschäftsordnung" für solche kombinierten Operationen zu erfinden. Beispielsweise könnte die Konzentration der Gruppe leichter aufrechterhalten werden als in herkömmlichen Sitzungen. Die Expertise der einzelnen Mitglieder könnte von Ego-Problemen isoliert werden, so dass sich die Beiträge der verschiedenen Mitglieder auf das Teamprojekt konzentrieren. Und natürlich könnten gemeinsame Datenbanken viel einfacher genutzt werden als in traditionellen Gremien. (Dieser Vorschlag bezieht sich auf Teamarbeit und nicht auf politische Sitzungen. In einem politischen Umfeld würde die oben beschriebene Automatisierung nur die Macht derer stärken, die die Regeln aufstellen.)
  • Nutzung des weltweiten Internets als kombiniertes Mensch-Maschine-Werkzeug. Von allen Punkten auf der Liste schreitet der Fortschritt in diesem Bereich am schnellsten voran und könnte uns noch vor allen anderen in die Singularität führen. Die Macht und der Einfluss selbst des heutigen Internets werden bei weitem unterschätzt. Ich glaube zum Beispiel, dass unsere heutigen Computersysteme unter dem Gewicht ihrer eigenen Komplexität zusammenbrechen würden, wenn es nicht den Vorteil gäbe, den der "Gruppengeist" des USENET den Systemadministratoren und Supportmitarbeitern bietet). Gerade die Anarchie der weltweiten Netzentwicklung ist ein Beweis für ihr Potential. Mit zunehmender Konnektivität, Bandbreite, Archivgröße und Rechnergeschwindigkeit sehen wir so etwas wie Lynn Margulis' [14] Vision der Biosphäre als Datenprozessor rekapituliert, allerdings mit millionenfach höherer Geschwindigkeit und mit Millionen menschlich intelligenter Agenten (uns selbst).

Die obigen Beispiele veranschaulichen die Forschung, die im Rahmen der heutigen Informatikfakultäten durchgeführt werden kann. Es gibt auch andere Paradigmen. Beispielsweise würden viele Arbeiten auf dem Gebiet der künstlichen Intelligenz und der neuronalen Netze von einer engeren Verbindung zum biologischen Leben profitieren. Anstatt nur zu versuchen, biologisches Leben mit Computern zu modellieren und zu verstehen, könnte sich die Forschung darauf konzentrieren, zusammengesetzte Systeme zu schaffen, die sich auf biologisches Leben stützen, um es zu steuern oder Funktionen bereitzustellen, die wir noch nicht gut genug verstehen, um sie in Hardware umzusetzen. Ein lang gehegter Traum der Science Fiction ist die direkte Schnittstelle zwischen Gehirn und Computer [2] [28] . In der Tat gibt es konkrete Arbeiten, die in diesem Bereich durchgeführt werden können (und bereits durchgeführt wurden):

  • Die Gliedmaßenprothetik ist ein Thema mit direkter kommerzieller Anwendbarkeit. Nerven-Silizium-Wandler können hergestellt werden [13]. Dies ist ein interessanter, kurzfristiger Schritt in Richtung direkter Kommunikation.
  • Ähnliche direkte Verbindungen zum Gehirn könnten bei niedrigen Bitraten möglich sein: Angesichts der Flexibilität des menschlichen Lernprozesses müssen die tatsächlichen Ziele der Gehirnneuronen möglicherweise nicht genau ausgewählt werden. Selbst 100 Bit pro Sekunde wären für Schlaganfallpatienten, die sonst auf menügesteuerte Schnittstellen angewiesen wären, von großem Nutzen.
  • Der Anschluss an Glasfaser hat das Potenzial, Bandbreiten von 1 Mbit/Sekunde oder mehr zu erreichen. Dazu müssen wir aber die Feinstruktur des Sehens kennen und ein riesiges Netz von Elektroden mit äußerster Präzision platzieren. Wenn wir unsere Verbindung mit hoher Bandbreite zusätzlich zu den bereits im Gehirn vorhandenen Bahnen aufbauen wollen, wird das Problem noch schwieriger. Es reicht sicherlich nicht aus, ein Netzwerk von Empfängern mit hoher Bandbreite in ein Gehirn zu kleben. Aber nehmen wir an, das Netzwerk mit hoher Bandbreite wäre bereits vorhanden, während sich die Gehirnstruktur während der Entwicklung des Embryos ausbildet. Das ist naheliegend:
  • Experimente an Tierembryonen. In den ersten Jahren solcher Forschungen würde ich keinen Erfolg erwarten, aber es könnte für diejenigen, die die Entwicklung des embryonalen Gehirns untersuchen, sehr interessant sein, dem sich entwickelnden Gehirn Zugang zu komplexen simulierten neuronalen Strukturen zu geben. Langfristig könnten solche Experimente Tiere mit zusätzlichen Sinneskanälen und interessanten intellektuellen Fähigkeiten hervorbringen.

Ursprünglich hatte ich gehofft, dass diese Diskussion über IA zu einigen viel sichereren Ansätzen für die Singularität führen würde. (Immerhin erlaubt uns die IA, an einer Art Transzendenz teilzuhaben.) Leider bin ich, wenn ich auf diese IA-Vorschläge zurückblicke, nur sicher, dass sie in Betracht gezogen werden sollten, dass sie uns mehr Optionen geben könnten. Aber was die Sicherheit betrifft... nun, einige der Vorschläge sind ein wenig beängstigend. Einer meiner informellen Gutachter wies darauf hin, dass IA eine ziemlich beängstigende Elite für einzelne Menschen schafft. Wir Menschen haben Millionen von Jahren an evolutionärem Ballast, der uns dazu bringt, Wettbewerb in einem tödlichen Licht zu sehen. In der heutigen Welt, in der die Verlierer die Tricks der Gewinner lernen und in die Unternehmen der Gewinner integriert werden, ist ein Großteil dieser Tödlichkeit vielleicht gar nicht mehr nötig. Ein Lebewesen, das von Grund auf neu konstruiert wurde, ist vielleicht ein viel gütigeres Wesen als eines, dessen Kern aus Reißzähnen und Klauen besteht. Und selbst die egalitäre Vorstellung eines Internets, das mit der gesamten Menschheit erwacht, kann als Alptraum betrachtet werden [25].

Das Problem ist nicht, dass die Singularität einfach das Verschwinden der Menschheit aus dem Zentrum darstellt, sondern dass sie einigen unserer tief verwurzelten Vorstellungen vom Sein widerspricht. Ich glaube, dass ein genauerer Blick auf das Konzept der starken Übermenschlichkeit zeigen kann, warum das so ist.

Starke Übermenschlichkeit und das Beste, was wir verlangen können

Angenommen, wir könnten die Singularität maßschneidern. Angenommen, wir könnten unsere kühnsten Träume verwirklichen. Was würden wir uns dann wünschen? Dass die Menschen ihre eigenen Nachfolger werden, dass jede Ungerechtigkeit durch das Wissen um unsere Wurzeln gemildert wird. Für diejenigen, die unverändert geblieben sind, wäre das Ziel eine wohlwollende Behandlung (vielleicht sogar so, dass die Zurückgebliebenen den Eindruck erwecken, sie seien Herren über gottgleiche Sklaven). Es könnte ein goldenes Zeitalter sein, das auch Fortschritt beinhaltet (Überwindung der Stent'schen Barriere). Unsterblichkeit (oder zumindest ein Leben, das so lange dauert, wie wir das Universum überleben lassen können [9] [3] ) wäre erreichbar.

Aber in dieser hellen und freundlichen Welt werden die philosophischen Probleme selbst einschüchternd. Ein Geist, der die gleiche Kapazität beibehält, kann nicht ewig leben; nach einigen tausend Jahren würde er eher einer sich wiederholenden Bandschleife als einem Menschen gleichen. (Das erschreckendste Bild, das ich davon gesehen habe, findet sich in [17].) Um ewig zu leben, muß der Geist selbst wachsen ... und wenn er groß genug ist und zurückblickt ... was kann er mit der Seele, die er ursprünglich war, gemeinsam haben? Gewiß, das spätere Wesen wird alles sein, was das ursprüngliche war, aber noch viel mehr. Und so muss Cairns-Smiths (oder Lynn Margulis') Idee, dass neues Leben allmählich aus dem alten herauswächst, auch für das Individuum gelten.

Dieses "Problem" der Unsterblichkeit stellt sich in einer viel direkteren Weise. Der Begriff des Ich und des Selbstbewusstseins war das Fundament des hartnäckigen Rationalismus der letzten Jahrhunderte. Nun aber wird der Begriff des Selbstbewusstseins von den Vertretern der Künstlichen Intelligenz angegriffen ("Selbstbewusstsein und andere Illusionen"). Die Steigerung der Intelligenz untergräbt die Bedeutung des Egos von einer anderen Seite. In der Welt nach der Singularität wird es eine Vernetzung mit extrem hoher Bandbreite geben. Ein zentrales Merkmal stark übermenschlicher Wesenheiten wird wahrscheinlich ihre Fähigkeit sein, mit variablen Bandbreiten zu kommunizieren, die weit über die von Sprache oder schriftlichen Botschaften hinausgehen. Was passiert, wenn Teile des Selbst kopiert und verschmolzen werden können, wenn die Größe eines Selbstbewusstseins wachsen oder schrumpfen kann, um sich der Natur der Probleme anzupassen, mit denen es konfrontiert wird? Dies sind wesentliche Merkmale eines starken Übermenschentums und der Singularität. Wenn man darüber nachdenkt, spürt man, wie fremd und anders das posthumane Zeitalter sein wird, egal wie klug und wohlwollend es gestaltet wird.

Auf der einen Seite entspricht diese Vision vielen unserer schönsten Träume: ein Ort ohne Ende, an dem wir uns wirklich kennen lernen und unsere tiefsten Geheimnisse verstehen können. Auf der anderen Seite ähnelt sie sehr dem Worst-Case-Szenario, das ich weiter oben in diesem Artikel beschrieben habe.

Welche Sichtweise ist die richtige? Ich glaube, dass die neue Ära einfach zu anders ist, um in den klassischen Rahmen von Gut und Böse zu passen. Dieser Rahmen basiert auf der Vorstellung von isolierten, unveränderlichen Geistern, die durch dünne, wenig belastbare Bande miteinander verbunden sind. Aber die Welt nach der Singularität passt in eine größere Tradition des Wandels und der Zusammenarbeit, die vor langer Zeit begann (vielleicht sogar vor der Entstehung des biologischen Lebens). Ich glaube, dass es ethische Vorstellungen gibt, die in einem solchen Zeitalter gelten würden. Die Forschung im Bereich der KI und der Breitbandkommunikation sollte dieses Verständnis verbessern. Erste Anzeichen dafür sehe ich bereits in der Meta-Goldenen Regel von Good, vielleicht in Regeln zur Unterscheidung zwischen Selbst und Anderen auf der Grundlage der Bandbreite der Verbindung. Und obwohl der Geist und das Selbst viel instabiler sein werden als in der Vergangenheit, wird vieles von dem, was wir schätzen (Wissen, Erinnerung, Gedanken), niemals verloren gehen. Ich denke, Freeman Dyson hat Recht, wenn er sagt [8]: "Gott ist das, was der Geist wird, wenn er die Skala unseres Verständnisses überschritten hat."

[I wish to thank John Carroll of San Diego State University and Howard
Davidson of Sun Microsystems for discussing the draft version of this
paper with me.]

Kommentierte Quellen [and an occasional plea for bibliographical help]

[1] Alfv n, Hannes, geschrieben als Olof Johanneson, _The End of Man?_,
Award Books, 1969, früher veröffentlicht als "The Tale of the Big
Computer", Coward-McCann, übersetzt aus einem Buch mit Copyright 1966
Albert Bonniers Forlag AB mit englischer Übersetzung, Copyright 1966
von Victor Gollanz, Ltd.

[2] Anderson, Poul, "Kings Who Die", _If_, März 1962, S. 8-36.
Nachgedruckt in _Sieben Eroberungen_, Poul Anderson, MacMillan Co., 1969.

[3] Barrow, John D. und Frank J. Tipler, _The Anthropic Cosmological
Prinzip_, Oxford University Press, 1986.

[4] Bear, Greg, "Blood Music", _Analog Science Fiction-Science Fact_,
Juni, 1983. Erweitert um den Roman _Blood Music_, Morrow, 1985

[5] Cairns-Smith, A. G., _Seven Clues to the Origin of Life_, Cambridge
University Press, 1985.

[6] Conrad, Michael _et al._, "Towards an Artificial Brain",
_BioSystems_, Bd. 23, S. 175-218, 1989.

[7] Drexler, K. Eric, _Engines of Creation_, Anchor Press/Doubleday, 1986.

[8] Dyson, Freeman, _Unendlich in allen Richtungen_, Harper & & Row, 1988.

[9] Dyson, Freeman, "Physik und Biologie in einem offenen Universum", _Review
of Modern Physics_, Band 51, S. 447-460, 1979.

[10] Good, I. J., "Speculations Concerning the First Ultraintelligent Machine
Machine", in _Advances in Computers_, Bd. 6, Franz L. Alt und
Morris Rubinoff, eds, pp31-88, 1965, Academic Press.

[11] Good, I. J., [Help! I can't find the source of Good's Meta-Golden
Rule, though I have the clear recollection of hearing about it
sometime in the 1960s. Through the help of the net, I have found
pointers to a number of related items. G. Harry Stine and Andrew
Haley have written about metalaw as it might relate to
extraterrestrials: G. Harry Stine, "How to Get along with
Extraterrestrials ... or Your Neighbor", _Analog Science Fact-
Science Fiction_, February, 1980, p39-47.]

[12] Herbert, Frank, _Dune_, Berkley Books, 1985. Dieser Roman wurde jedoch
in den 1960er Jahren in der Reihe _Analog Science Fiction-Science Fact_ veröffentlicht.

[13] Kovacs, G. T. A. _et al._, "Regeneration Microelectrode Array for
Peripheral Nerve Recording and Stimulation", _IEEE Transactions
on Biomedical Engineering_, v 39, n 9, S. 893-902.

[14] Margulis, Lynn und Dorion Sagan, _Microcosmos, Four Billion Years of
Evolution von unseren mikrobiellen Vorfahren_, Summit Books, 1986.

[15] Minsky, Marvin, _Gesellschaft des Geistes_, Simon and Schuster, 1985.

[16] Moravec, Hans, _Gehirnkinder_, Harvard University Press, 1988.

[17] Niven, Larry, "Die Ethik des Wahnsinns", _If_, April 1967, S. 82-108.
Nachgedruckt in _Neutron Star_, Larry Niven, Ballantine Books, 1968.

[18] Penrose, R., _The Emperor's New Mind_, Oxford University Press, 1989.

[19] Platt, Charles, Private Mitteilung.

[20] Rasmussen, S. _et al._, "Computational Connectionism within Neurons:
a Model of Cytoskeletal Automata Subserving Neural Networks", in
_Emergent Computation_, Stephanie Forrest, Hrsg., S. 428-449, MIT
Press, 1991.

[21] Searle, John R., "Minds, Brains, and Programs", in _The Behavioral and
Brain Sciences_, v.3, Cambridge University Press, 1980. Der
Aufsatz ist nachgedruckt in _The Mind's I_, herausgegeben von Douglas R.
Hofstadter und Daniel C. Dennett, Basic Books, 1981. Diese
Nachdruck enthält eine ausgezeichnete Kritik des Searle-Aufsatzes.

[22] Sims, Karl, "Interaktive Evolution von dynamischen Systemen", Thinking
Machines Corporation, Technical Report Series (veröffentlicht in _Toward
einer Praxis autonomer Systeme: Proceedings of the First European
Cnference on Artificial Life_, Paris, MIT Press, Dezember 1991.

[23] Stapledon, Olaf, _The Starmaker_, Berkley Books, 1961 (aber nach dem
dem Vorwort wahrscheinlich vor 1937 geschrieben).

[24] Stent, Gunther S., _Die Ankunft des Goldenen Zeitalters: Ein Blick auf das Ende
des Fortschritts_, The Natural History Press, 1969.

[25] Swanwick Michael, _Vacuum Flowers_, erschienen in _Isaac Asimov's
Science Fiction Magazine_, Dezember(?) 1986 - Februar 1987.
Wiederveröffentlicht von Ace Books, 1988.

[26] Thearling, Kurt, "Wie wir eine denkende Maschine bauen werden", ein Workshop
bei der Thinking Machines Corporation. Persönliche Mitteilung.

[27] Ulam, S., Hommage an John von Neumann, _Bulletin of the American
Mathematical Society_, Band 64, Nr. 3, Teil 2, Mai 1958, S. 1-49.

[28] Vinge, Vernor, "Bücherwurm, lauf!", _Analog_, März 1966, S. 8-40.
Nachgedruckt in _True Names and Other Dangers_, Vernor Vinge, Baen
Bücher, 1987.

[29] Vinge, Vernor, "Wahre Namen", _Binary Star Number 5_, Dell, 1981.
Nachgedruckt in _Wahre Namen und andere Gefahren_, Vernor Vinge, Baen
Bücher, 1987.

[30] Vinge, Vernor, Erstes Wort, _Omni_, Januar 1983, S. 10.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Vernor Vinges 1993 veröffentlichtes Papier "The Coming Technological Singularity: How to Survive in the Post-Human Era" (Die kommende technologische Singularität: Wie wir im posthumanen Zeitalter überleben) diskutiert das theoretische Konzept der technologischen Singularität, eines zukünftigen Punktes, an dem die künstliche Intelligenz die menschliche Intelligenz übertrifft und zu tiefgreifenden gesellschaftlichen Veränderungen führt.
  • Der Text untersucht mögliche Wege zu dieser Singularität, darunter superintelligente Maschinen, riesige erwachte Computernetzwerke, fortgeschrittene Computer-Mensch-Schnittstellen und biotechnologische Verbesserungen des menschlichen Intellekts.
  • 1993 behauptete Vinge, dass wir innerhalb von 30 Jahren über die Mittel verfügen würden, eine Superintelligenz zu erschaffen. Wie viele seiner Visionen sind heute Realität?
Vernor Vinge

Fachbereich für mathematische Wissenschaften San Diego State University

(c) 1993 von Vernor Vinge

Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!