Sam Altman, Mitgründer von OpenAI, hält eine allgemeine Künstliche Intelligenz für machbar und sein Unternehmen für einen Vorreiter im Feld.
In einem Blogeintrag beschreibt Altman seine Vision einer allgemeinen künstlichen Intelligenz und den Weg dorthin. Die drei zentralen Punkte sind für Altman
- Maximierung der Vorteile und Minimierung der Nachteile einer AGI,
- weit verbreiteter Zugang zum System,
- und die Adressierung "massiver Risiken" durch einen kontinuierlichen Rollout- und Lernprozess von weniger leistungsfähigen KI-Systemen.
Altman macht in seinem Beitrag deutlich, dass er die aktuellen Fortschritte von OpenAI auf dem Weg zu einer allgemeinen KI sieht ("as our systems get closer to AGI"), räumt aber auch ein, dass man die Zukunft nicht "genau" vorhersagen und der aktuelle Fortschritt gegen eine Wand laufen könne.
Ein langsamer Start mit vielen Feedbackschleifen ist aus Sicht von OpenAI der sicherste Weg, um KI in die Gesellschaft einzubringen.
Wir sind derzeit der Ansicht, dass die Herausforderungen im Zusammenhang mit dem Einsatz von KI am besten durch eine enge Feedbackschleife aus schnellem Lernen und sorgfältiger Iteration bewältigt werden können.
Die Gesellschaft wird mit wichtigen Fragen konfrontiert werden, was KI-Systeme tun dürfen, wie Vorurteile bekämpft werden können, wie mit der Verdrängung von Arbeitsplätzen umgegangen werden kann und vieles mehr.
Optimale Entscheidungen werden davon abhängen, welchen Weg die Technologie einschlägt, und wie in jedem neuen Bereich haben sich die meisten Vorhersagen von Experten bisher als falsch erwiesen. Das macht es sehr schwierig, im luftleeren Raum zu planen.
Sam Altman / OpenAI
OpenAI will weniger Open sein
Geht es nach Altman, soll das Unternehmen den bereits eingeschlagenen und vor allem von Forschenden immer wieder kritisierten Weg fortsetzen und nur sparsam über die eigenen Modelle veröffentlichen.
AI research output from prolific institutions:
- Microsoft
- Stanford
- Meta
- Amazon
- DeepMind
- OpenAI pic.twitter.com/Z28TP87VY4— John Nay (@johnjnay) February 1, 2023
Die ursprüngliche Idee von "Open" (Anm.: im Sinne von "Open Source") sei falsch gewesen, schreibt Altman. Vielmehr gehe es darum, den Zugang zu den Systemen und ihren Vorteilen so sicher wie möglich zu gestalten. Dennoch werde es immer wieder Open-Source-Veröffentlichungen von OpenAI geben, wie das Audio-zu-Text-Modell Whisper.
Mit zunehmender Leistungsfähigkeit der Systeme will OpenAI vorsichtiger mit Veröffentlichungen umgehen. Sollte sich die Risikolage drastisch verschlechtern, könnte die bisherige Veröffentlichungsstrategie komplett über den Haufen geworfen werden.
Ab einem gewissen Punkt könnten unabhängige Gutachten vor dem KI-Training sowie Wachstumsbeschränkungen für KI-Modelle notwendig werden. Dazu seien öffentliche Standards nötig. Beim Training von Modellen ab einer bestimmten Größenordnung sollten die "wichtigsten Regierungen der Welt" involviert werden.
OpenAI Zukunftsvision ist und bleibt die generelle KI
Das Ziel von OpenAI ist eine menschenfreundliche allgemeine KI, die unsere Spezies voranbringt. Große KI-Modelle wie GPT-3 und ChatGPT, die das Weltwissen aus Millionen von Texten in sich tragen, könnten ein Zwischenschritt zu dieser allgemeinen KI sein.
Befürworter:innen dieser These gehen davon aus, dass große KI-Modelle durch mehr und vielfältigere Daten und stärkere Skalierung immer mehr neue Fähigkeiten entwickeln. Diese These ist jedoch in der Fachwelt umstritten. Gegner:innen der These gehen davon aus, dass der reine Skalierungsansatz eine Sackgasse auf dem Weg zu einer menschenähnlichen KI ist und die Modelle ein grundlegendes Verständnis der Welt entwickeln müssen, das allein anhand von Datentraining nicht erreichbar ist.
Altman gehört eher zu den Befürwortern der Skalierungsthese: "Wir können uns eine Welt vorstellen, in der die Menschheit in einem Ausmaß gedeiht, das sich wahrscheinlich noch niemand von uns ganz vorstellen kann. Wir hoffen, der Welt eine AGI zur Verfügung stellen zu können, die auf diesen Wohlstand ausgerichtet ist."