OpenAI verabschiedet sich von der Vorstellung einer plötzlichen AGI-Entwicklung
Das KI-Labor, das hinter ChatGPT und vielen anderen kommerziellen Anwendungen steht, hat es zu seiner Mission erklärt, eine AGI zu entwickeln, die "allen Menschen nützt". Jetzt veröffentlicht es eine neue Sichtweise auf diese Wundertechnologie.
OpenAI hat sich von der lange vorherrschenden Vorstellung verabschiedet, dass künstliche allgemeine Intelligenz (AGI) ein einzelner, dramatischer Moment sein wird, an dem KI-Systeme plötzlich übermenschliche Fähigkeiten entwickeln. Laut einem aktuellen Blogbeitrag des Unternehmens sieht man AGI stattdessen als kontinuierlichen Entwicklungsprozess mit schrittweisen Verbesserungen.
Diese neue Sichtweise spiegelt sich auch in OpenAIs Sicherheitsstrategie wider. Statt sich auf ein hypothetisches AGI-Szenario vorzubereiten, setzt das Unternehmen auf einen empirischen Ansatz: Sicherheitsmaßnahmen würden durch reale Erfahrungen mit aktuellen Systemen entwickelt und verbessert.
Besonders wichtig sei es, Sicherheitsmethoden zu entwickeln, die mit zunehmender KI-Fähigkeit nicht schwächer, sondern stärker werden. Dazu gehört auch die Nutzung fortgeschrittener KI-Systeme zur Verbesserung ihrer eigenen Sicherheit. OpenAI stellt kürzlich ein neues Sicherheitssystem vor, das skaliert und daher AGI-tauglich sein könnte.
OpenAI sieht sich rückblickend als zu vorsichtig
In dem Blogpost stellt OpenAI die zeitweilige Nicht-Veröffentlichung von GPT-2 im Jahr 2019 als Beispiel für einen überholten Ansatz dar: Man habe das Modell aus Sorge vor Missbrauch zunächst zurückgehalten - eine rückblickend "übertriebene Vorsicht" gegenüber der tatsächlichen Leistungsfähigkeit des Systems, die aus einer veralteten Sichtweise von AGI als plötzlichem Durchbruch resultierte.
Miles Brundage, ehemaliger Leiter der Policy Research bei OpenAI, widerspricht dieser Darstellung: Die schrittweise Veröffentlichung von GPT-2 habe bereits damals die heutige Philosophie der iterativen Entwicklung widergespiegelt. Viele Sicherheitsexperten hätten OpenAI für diese Vorsicht gedankt. Die Entscheidung sei angesichts der damaligen Informationslage verantwortungsvoll gewesen.
OpenAI betont im aktuellen Blogpost auch die zentrale Rolle der menschlichen Kontrolle über leistungsfähige KI-Systeme. Entscheidungen über das Verhalten von KI-Systemen sollen von der Gesellschaft bestimmt und an menschliche Werte angepasst werden. Das Unternehmen arbeite an Mechanismen, die es Menschen ermöglichen, ihre Absichten klar zu kommunizieren und KI-Systeme effektiv zu kontrollieren - auch wenn deren Fähigkeiten die des Menschen übersteigen.
Kürzlich wurde bekannt, dass OpenAI in seinem Vertrag mit Microsoft eine rein ökonomische Definition von AGI festgeschrieben hat. Einem Bericht von The Information zufolge gilt ein System dann als KI, wenn es Menschen in den meisten wirtschaftlich wertvollen Aufgaben übertrifft und mindestens 100 Milliarden Dollar Gewinn erwirtschaftet.
Das passt zu OpenAIs Umdeutung von AGI von einem Zeitpunkt zu einem Zeitraum und zu den jüngsten Äußerungen von Microsoft-CEO Satya Nadella, der selbst ernannte AGI-Meilensteine als "sinnloses Benchmark-Hacking" bezeichnete.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.