Warum so viele Safety-Forscher OpenAI verlassen haben, erklärt Sam Altman in einem neuen Porträt des New Yorker selbst: "Meine Vibes passen nicht wirklich zu vielem von diesem traditionellen KI-Safety-Kram."
Der Satz ist wohl die direkteste Erklärung für den seit Langem schwelenden Bruch zwischen OpenAIs kommerziellem Kurs und seinem Safety-Lager; OpenAI hatte zuletzt sicherheitsorientierte Teams aufgelöst und angeblich Sicherheitsmaßnahmen reduziert. Als Mitarbeitende nach OpenAIs Einstieg ins Pentagon-Geschäft Bedenken äußerten, reagierte Altman knapp. "Vielleicht findet ihr den Iran-Angriff gut und die Invasion Venezuelas schlecht. Da habt ihr kein Mitspracherecht."
Das Porträt zeichnet Altman insgesamt als stark polarisierende Figur, die gefallen will und zugleich gleichgültig gegenüber den Folgen möglicher Täuschungen ist, so ein Ex-Board-Member. Altmans Version davon:
Ich glaube, manche Leute wollen eine Führungsperson, die sich ihrer Sache absolut sicher ist, daran festhält und ihre Position nicht mehr ändert. Aber wir arbeiten in einem Bereich, in dem sich die Dinge extrem schnell verändern.
Sam Altman über wechselnde Versprechen
Bestes Beispiel: 2019 warnte Altman öffentlichkeitswirksam davor, GPT-2 vollständig zu veröffentlichen, weil das Modell angeblich zu gefährlich sei. Wenige Jahre später stellte er um ein Vielfaches leistungsfähigere Modelle kostenlos für alle zur Verfügung.
