Das KI-Labor, das hinter ChatGPT und vielen anderen kommerziellen Anwendungen steht, hat es zu seiner Mission erklärt, eine AGI zu entwickeln, die "allen Menschen nützt". Jetzt veröffentlicht es eine neue Sichtweise auf diese Wundertechnologie.
OpenAI hat sich von der lange vorherrschenden Vorstellung verabschiedet, dass künstliche allgemeine Intelligenz (AGI) ein einzelner, dramatischer Moment sein wird, an dem KI-Systeme plötzlich übermenschliche Fähigkeiten entwickeln. Laut einem aktuellen Blogbeitrag des Unternehmens sieht man AGI stattdessen als kontinuierlichen Entwicklungsprozess mit schrittweisen Verbesserungen.
Diese neue Sichtweise spiegelt sich auch in OpenAIs Sicherheitsstrategie wider. Statt sich auf ein hypothetisches AGI-Szenario vorzubereiten, setzt das Unternehmen auf einen empirischen Ansatz: Sicherheitsmaßnahmen würden durch reale Erfahrungen mit aktuellen Systemen entwickelt und verbessert.
Besonders wichtig sei es, Sicherheitsmethoden zu entwickeln, die mit zunehmender KI-Fähigkeit nicht schwächer, sondern stärker werden. Dazu gehört auch die Nutzung fortgeschrittener KI-Systeme zur Verbesserung ihrer eigenen Sicherheit. OpenAI stellt kürzlich ein neues Sicherheitssystem vor, das skaliert und daher AGI-tauglich sein könnte.
OpenAI sieht sich rückblickend als zu vorsichtig
In dem Blogpost stellt OpenAI die zeitweilige Nicht-Veröffentlichung von GPT-2 im Jahr 2019 als Beispiel für einen überholten Ansatz dar: Man habe das Modell aus Sorge vor Missbrauch zunächst zurückgehalten - eine rückblickend "übertriebene Vorsicht" gegenüber der tatsächlichen Leistungsfähigkeit des Systems, die aus einer veralteten Sichtweise von AGI als plötzlichem Durchbruch resultierte.
Miles Brundage, ehemaliger Leiter der Policy Research bei OpenAI, widerspricht dieser Darstellung: Die schrittweise Veröffentlichung von GPT-2 habe bereits damals die heutige Philosophie der iterativen Entwicklung widergespiegelt. Viele Sicherheitsexperten hätten OpenAI für diese Vorsicht gedankt. Die Entscheidung sei angesichts der damaligen Informationslage verantwortungsvoll gewesen.
OpenAI betont im aktuellen Blogpost auch die zentrale Rolle der menschlichen Kontrolle über leistungsfähige KI-Systeme. Entscheidungen über das Verhalten von KI-Systemen sollen von der Gesellschaft bestimmt und an menschliche Werte angepasst werden. Das Unternehmen arbeite an Mechanismen, die es Menschen ermöglichen, ihre Absichten klar zu kommunizieren und KI-Systeme effektiv zu kontrollieren - auch wenn deren Fähigkeiten die des Menschen übersteigen.
Kürzlich wurde bekannt, dass OpenAI in seinem Vertrag mit Microsoft eine rein ökonomische Definition von AGI festgeschrieben hat. Einem Bericht von The Information zufolge gilt ein System dann als KI, wenn es Menschen in den meisten wirtschaftlich wertvollen Aufgaben übertrifft und mindestens 100 Milliarden Dollar Gewinn erwirtschaftet.
Das passt zu OpenAIs Umdeutung von AGI von einem Zeitpunkt zu einem Zeitraum und zu den jüngsten Äußerungen von Microsoft-CEO Satya Nadella, der selbst ernannte AGI-Meilensteine als "sinnloses Benchmark-Hacking" bezeichnete.