Inhalt
summary Zusammenfassung

Die Fähigkeit, ergebnisoffen zu agieren, ist laut Forschern von Google Deepmind für die Entwicklung einer Super-KI von grundlegender Bedeutung.

In einem neuen Paper argumentieren Forscherinnen und Forscher von Google Deepmind, dass die Fähigkeit, sich ständig selbst zu verbessern, ein wesentliches Merkmal einer künstlichen Superintelligenz (Artificial Superintelligence, ASI) ist.

Nach Ansicht der Forscherinnen und Forscher reicht es nicht aus, immer größere Datensätze zu verwenden, um eine ASI zu erreichen. Sie beziehen sich damit auf aktuelle Skalierungsstrategien, die insbesondere auf die Faktoren mehr Rechenleistung und mehr Daten abzielen. Stattdessen müssen KI-Systeme in der Lage sein, selbst neues Wissen zu generieren und ihre Lernfähigkeit eigenständig zu verbessern.

Die Forscher definieren ein System als "open-ended", wenn es aus der Sicht eines Beobachters ständig neue und lernbare Artefakte erzeugt, die schwer vorherzusagen sind, auch wenn der Beobachter durch die Untersuchung vergangener Artefakte gelernt hat, diese besser vorherzusagen.

Anzeige
Anzeige
Ob von KI generierte Inhalte open-ended sind, hängt davon ab, ob ein Beobachter die erzeugten Dinge als neu empfindet und ob etwas daraus lernen kann. Eine Maus hält etwa Flugzeuge für neu, kann aber die Prinzipien dahinter nicht verstehen. Für Studierende der Luft- und Raumfahrttechnik sind die Entwürfe neu und lehrreich - das macht das System in diesem Szenario offen. Ein Alien mit großem Wissen über die Luftfahrt findet die Entwürfe zwar nicht neu, kann sie aber analysieren und verstehen. | Bild: Google Deepmind

Die Forscher nennen einige Beispiele für offene Systeme und ihre Grenzen. AlphaGo könne immer wieder neue Strategien entwickeln, um selbst lernende Menschen zu schlagen - aber nur im Rahmen der von Menschen gemachten Regeln. Ein solches System sei daher trotz seiner Offenheit zu eng, um neue Wissenschaft oder Technologie zu entdecken.

Ein weiteres Beispiel ist der Agent "AdA", der Aufgaben in einer 3D-Umgebung mit Milliarden möglicher Varianten löst. Durch Training erwirbt AdA schrittweise Fähigkeiten für immer komplexere und unbekanntere Umgebungen.

Für menschliche Beobachter scheint das offen zu sein, da AdA ständig neue Fähigkeiten zeigen. Die Ergebnisse deuten jedoch darauf hin, dass die Neuartigkeit mit der Zeit ein Plateau erreicht und nur durch weitere Inhalte reaktiviert werden kann. Die Offenheit ist also zeitlich begrenzt.

Das POET-System trainiert Agenten, die jeweils an eine evolutionäre Umgebung gekoppelt sind. Durch periodischen Wechsel zwischen den Umgebungen lösen die Agenten schließlich hochkomplexe Aufgaben, die durch direkte Optimierung nicht lösbar wären.

Diese Offenheit wird allerdings durch die Parametrisierung der Umgebung selbst begrenzt: Irgendwann erreicht POET, ähnlich wie AdA, ein Plateau.

Empfehlung

Foundation-Modelle auf Basis passiver Daten werden bald stagnieren

Im Gegensatz dazu seien aktuelle Foundation Modelle, wie die großen Sprachmodelle, nicht "open-ended". Da sie auf statischen Datensätzen trainiert werden, würden sie ab einem bestimmten Punkt keine neuen Artefakte mehr erzeugen. Sie würden bald ein Plateau erreichen, heißt es in dem Paper.

Sie könnten jedoch den Weg zu offenen Systemen ebnen, wenn sie kontinuierlich mit neuen Daten gefüttert und mit offenen Methoden wie Reinforcement Learning, Selbstverbesserung, automatischer Aufgabengenerierung und evolutionären Algorithmen kombiniert würden.

Foundation Models würden das Wissen der Menschheit zusammenführen und könnten so die Suche nach neuen relevanten Artefakten leiten, so die Forscher. Das mache sie potenziell zu einem Baustein für die Generalisierungsfähigkeit künstlicher Intelligenz.

"Wir sind der Meinung, dass Ergebnisoffenheit eine Eigenschaft jeder ASI ist und Grundlagenmodelle die fehlende Zutat für eine übergreifende Ergebnisoffenheit liefern. Darüber hinaus sind wir der Meinung, dass nur noch wenige Schritte notwendig sind, um Ergebnisoffenheit mit Hilfe der Grundlagenmodelle zu erreichen."

Aus dem Paper

Allerdings warnen die Wissenschaftler auch vor erheblichen Sicherheitsrisiken. Die ständig erzeugten Artefakte müssen für den Menschen nachvollziehbar und kontrollierbar bleiben. Sicherheitsüberlegungen müssen von Anfang an in die Entwicklung offener Systeme einfließen, um zu verhindern, dass eine künstliche Superintelligenz außer Kontrolle gerät.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Gelingt es jedoch, die Herausforderungen zu meistern, so die Hoffnung der Forscherinnen und Forscher, könnten ergebnisoffene Grundlagenmodelle zu einem Innovationsmotor werden, der bahnbrechende Durchbrüche in Wissenschaft und Technologie ermöglicht und die menschliche Kreativität in einer kollaborativen Feedbackschleife stärkt.

Der Mitbegründer von Deepmind, Demis Hassabis, deutete bereits vor einem Jahr an, dass Google Deepmind damit experimentiert, die Stärken von Systemen wie AlphaGo mit den Sprachfähigkeiten großer Modelle zu kombinieren. Das bisher veröffentlichte Gemini-Modell von Google bietet allerdings noch keine derartigen Fortschritte.

OpenAIs Q* soll ebenfalls Ideen, wie sie von Google Deepminds AlphaZero bekannt sind, mit Sprachmodellen verknüpfen - ähnlich dem, was Microsoft-Forscher kürzlich mit "Everything of Thoughts" gezeigt haben.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google Deepmind Forscher argumentieren, dass die Fähigkeit, sich ständig selbst zu verbessern und neue lernfähige Artefakte zu erzeugen, ein entscheidendes Merkmal einer künstlichen Superintelligenz (ASI) ist. Sie bezeichnen diese Eigenschaft als "Ergebnisoffenheit" (open-endedness).
  • Ein System gilt als "open-ended", wenn es aus der Sicht eines Beobachters ständig neue, schwer vorhersagbare und lernbare Artefakte erzeugt. Beispiele wie AlphaGo, AdA und POET zeigen unterschiedliche Grade und Grenzen der Offenheit.
  • Aktuelle Skalierungsstrategien, die allein auf mehr Rechenleistung und Daten setzen, reichen nach Ansicht der Forscher nicht aus, um ASI zu erreichen. Stattdessen müssen KI-Systeme in der Lage sein, selbstständig neues Wissen zu generieren und ihre Lernfähigkeit eigenständig zu verbessern. Grundlagenmodelle könnten mit offenen Methoden kombiniert werden, was nur noch wenige Schritte entfernt sei.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!