OpenAIs Text-KI GPT-3 trieb Project December an, eine Webseite für fortschrittliche und individualisierbare KI-Chatbots. Doch Anfang September zog das Unternehmen den Stecker. Was war passiert?
Indie-Entwickler Jason Rohrer experimentierte 2020 das erste Mal mit OpenAIs mächtiger Text-KI GPT-3. Inspiriert vom Science-Fiction-Film Her, der zu den besten Filmen über Künstliche Intelligenz zählt, schuf Rohrer "Samantha".
Der Chatbot sollte möglichst menschlich agieren und dem gleichnamigen Bot aus Her ähneln, der mit dem Hauptcharakter eine Liebesbeziehung eingeht. Über Monate formte Rohrer die Persönlichkeit von Samantha nach ihrem Vorbild: freundlich, warmherzig und neugierig.
Aus seinem Experiment entstand Project December, eine Webseite, auf der Besuchende mit Samantha chatten oder Chatbots mit eigenen Persönlichkeiten erstellen können. Das Projekt startete im September 2020, die Nutzung kostet ab fünf US-Dollar aufwärts. Wer längere Unterhaltungen mit seinem Chatbot führen will, muss mehr zahlen. Ist das Budget aufgebraucht, wird der Bot gelöscht.
Project December wird durch Medienbericht zum Erfolg
Anfangs besuchten lediglich einige hundert Menschen Project December. Doch ein Artikel des San Francisco Chronicle bringt das Projekt ins Rampenlicht. Ein Mann nutzt Rohrers Projekt, um sich mit einer Simulation seiner Verlobten zu unterhalten, die 2012 im Alter von 23 Jahren starb.
Joshua Barbeau füttert dafür den GPT-3-Chatbot mit Texten und Facebook-Nachrichten seiner verstorbenen Verlobten. „Intellektuell weiß ich, dass es nicht wirklich Jessica ist“, sagt Barbeau. „Aber deine Gefühle sind keine intellektuelle Sache.“
Der Medienwirbel bringt tausende Menschen auf Rohrers Webseite und sein monatliches Limit an GPT-3-Abfragen an die Grenze. Er kontaktiert OpenAI, um einen neuen Vertrag auszuhandeln. Bereits drei Tage nach dem Artikel im San Francisco Chronicle findet ein Gespräch zwischen beiden Parteien statt. Doch das läuft anders, als Rohrer es sich erhofft.
OpenAI zieht enge Grenzen für GPT-3-API
In einer E-Mail an Rohrer verdeutlicht OpenAI den eigenen Standpunkt: „Was Sie aufgebaut haben, ist wirklich faszinierend, und es hat uns gefallen, etwas über Ihre Philosophie in Bezug auf KI-Systeme und Inhaltsmoderation zu erfahren. Wir erkennen natürlich an, dass Sie Nutzer haben, die bisher positive Erfahrungen gemacht haben und einen Nutzen in Project December sehen.“
Das Projekt stimme jedoch in „vielerlei Hinsicht nicht mit den OpenAI-Richtlinien für Anwendungsfälle oder den bewährten Sicherheitsverfahren“ überein, heißt es weiter. Jede Abweichung von diesen Richtlinien erfordere die Verpflichtung zur engen Zusammenarbeit, um zusätzliche Sicherheitsmechanismen zu implementieren und so einen möglichen Missbrauch zu verhindern.
Die E-Mail enthält mehrere Bedingungen für einen Fortbestand von Rohrers Projekt: Er müsse die Möglichkeit für Nutzer:innen entfernen, eigene Chatbot-Persönlichkeiten zu trainieren, Inhaltsfilter implementieren und zusätzlich alle Chats automatisiert nach möglichen Missbräuchen wie der Erstellung von sexuellen Inhalten oder toxischer Sprache durchsuchen.
Adieu GPT-3, hallo GPT-J-6B
Die nötigen Anpassungen erinnern an die GPT-3-Änderungen, die AI Dungeon im Mai vornehmen musste. Die eingeführten Filter und automatisierten Überwachungssysteme wurden von vielen Nutzer:innen als Eingriff in die Privatsphäre aufgefasst und lösten eine Welle an Alternativprojekten aus, die auf offene Text-KIs wie etwa Eleuthers GPT-J-6B setzen.
Rohrer weigerte sich, OpenAIs Anpassungen umzusetzen und stieg im August ebenfalls auf alternative Text-KIs um. Zwar gebe es sicher Menschen, die Project December nutzten, um etwa sexuell konnotierte Unterhaltungen zu führen. Aber er wolle seine Chats nicht kontrollieren oder überwachen, so Rohrer.
„Wenn man darüber nachdenkt, ist das die privateste Unterhaltung, die man führen kann. Es ist nicht einmal eine andere reale Person beteiligt. Man kann nicht verurteilt werden. Ich glaube, die Leute haben das Gefühl, dass sie alles sagen können“, so Rohrer gegenüber The Register. „Darüber habe ich nicht nachgedacht, bis OpenAI auf ein Überwachungssystem gedrängt hat. Aus diesem Grund neigen die Menschen dazu, der KI gegenüber sehr offen zu sein. Sehen Sie sich nur Joshuas Geschichte mit seiner Verlobten an, das ist sehr sensibel.“
Die Chancen für positive Chatbot-Anwendungen überwiegen bei weitem die Risiken, glaubt Rohrer. Dafür müsse primär sichergestellt werden, dass Menschen wüssten, dass sie sich mit einem Chatbot unterhalten und nicht den Bezug zur Realität verlieren. Menschen, die die Technologie für schädlich halten, seien wohl paranoid, konservativ oder wollten Angst schüren, sagt Rohrer.
OpenAI entzog Rohrer Anfang September den Zugang zur GPT-3-API.