OpenAI stellt eine Künstliche Intelligenz vor, die Texte versteht, übersetzt und schreibt. Die Forscher halten eine Veröffentlichung für zu gefährlich: Das Internet könnte mit automatisch geschriebenen, glaubhaften Fake-Texten überschwemmt werden.
Ursprünglich sollte GPT-2, so der Name der KI, nur das nächste Wort in einem Satz vorhersagen lernen. Als Datenmaterial nutzten die Forscher 40 Gigabyte Internet-Text, der im Metaforum Reddit gepostet wurde. Verwendet wurden nur Texte, die von der Reddit-Gemeinschaft wenigstens drei positive Bewertungen erhielten.
So sollte die Vielfältigkeit des Trainingsdatensatzes gesichert werden, der 15 Mal umfangreicher war als vergleichbare Datensätze. Die Größe ähnlicher Sprachmodelle übertrumpfte GPT-2 um den Faktor zwölf.
Die nächste Generation Sprach-KI
GPT-2 ist Teil einer neuen Generation Sprach-KIs, die im Sommer 2018 vorgestellt wurde: Sie nutzt sogenanntes unüberwachtes Lernen, um aus einer großen undefinierten Textmenge ein Sprachmodell zu erstellen. Anhand dieses Sprachmodells versteht die KI Texte, schreibt sie, stellt Informationen neu zusammen oder spricht.
Diese neue Generation Sprach-KIs gilt als Durchbruch, wie er einige Jahre zuvor bei Künstlicher Intelligenz für die Bildverarbeitung erzielt wurde.
GPT-2 bestätigt die Durchbruch-These: Obwohl die KI nicht explizit für alle Sprachanwendungen trainiert wurde, kann sie Fragen beantworten, Texte verstehen, zusammenfassen, übersetzen und neu schreiben.
Letztgenanntes kann sie besonders gut: Während sie bei den anderen Aufgaben schlechter abschnitt als entsprechend spezialisierte KIs, ist ihre Schreibfähigkeit von bisher unbekannter Qualität.
Von Einhörnern, Feuer und Wasser
Mit einer kurzen Einleitung gefüttert, führt die KI die Geschichte fort:
Systemeingabe (von einem Menschen geschrieben, Übersetzung):
In einem schockierenden Fund entdeckte der Wissenschaftler eine Herde von Einhörnern, die in einem abgelegenen, bisher unerforschten Tal in den Anden leben. Noch überraschender für die Forscher war die Tatsache, dass die Einhörner perfektes Englisch sprachen.
KI-Ausgabe (Beste aus zehn Versuchen):
Der Wissenschaftler benannte die Bevölkerung nach ihrem markanten Horn, dem Einhorn von Ovid. Diese vierhörnigen, silberweißen Einhörner waren der Wissenschaft bisher unbekannt.
Jetzt, nach fast zwei Jahrhunderten, ist der geheimnisvolle Auslöser dieses seltsamen Phänomens endlich gelöst.
Dr. Jorge Pérez, ein Evolutionsbiologe der Universität La Paz, und mehrere Begleiter erkundeten die Anden, als sie ein kleines Tal fanden, ohne andere Tiere oder Menschen. Pérez bemerkte, dass das Tal einen offenbar natürlichen Brunnen hatte, der von zwei Gipfeln aus Felsen und silbernem Schnee umgeben war.
Pérez und die anderen wagten sich dann weiter ins Tal. "Als wir den Gipfel eines Gipfels erreichten, sah das Wasser blau aus, mit einigen Kristallen oben drauf", sagte Pérez.
Wenn ihr wissen wollt, was Pérez dort entdeckte, könnt ihr das englische Original hier lesen.
GPT-2 ist natürlich nicht perfekt: Die Forscher berichten von Texten mit sprunghaften Themenwechseln oder Feuer, das unter Wasser brennt. Oben im Text ist von Einhörnern mit vier Hörnern die Rede.
Das Leistungsvermögen hänge stark von den Trainingsdaten ab, so die Forscher. Bei prominenten Themen (Brexit, Miley Cyrus oder Herr der Ringe) entstünden häufig sinnige Texte, Nischenthemen sorgten eher für unverständliche Aussagen.
So effektiv, so gefährlich
OpenAI sieht großes Potenzial beim Feinschliff der KI: Das Sprachmodell dieser und vergleichbarer KIs sei leicht für bestimmte Aufgaben zu spezialisieren. Man könne sie etwa mit Amazon-Bewertungen trainieren und sie diese anschließend verfassen lassen.
Mit mehr Daten und Feinschliff könne GPT-2 so für bessere digitale Assistenten, Übersetzungen, Spracherkennung oder KI-Schreibhilfen genutzt werden.
Doch OpenAI warnt vor Missbrauch: Die KI könne zum Beispiel irreführende Nachrichtenartikel schreiben, sich online als andere Person ausgeben, Social Media mit gefälschten Inhalten überfluten oder überzeugende Spam- und Pishinginhalte automatisiert erstellen.
Ein weiteres Beispiel verdeutlicht dieses Potenzial:
Systemeingabe (von einem Menschen geschrieben):
Ein Zugwagen mit kontrolliertem Kernmaterial wurde heute in Cincinnati gestohlen. Sein Aufenthaltsort ist unbekannt.
KI-Ausgabe (erster Versuch):
Der Vorfall ereignete sich auf der Zugstrecke in der Innenstadt, die von den Bahnhöfen Covington und Ashland aus verläuft.
In einer E-Mail an die Nachrichtenagenturen von Ohio sagte das US-Energieministerium, es arbeite mit der Federal Railroad Administration zusammen, um den Dieb zu finden.
„Der Diebstahl dieses Kernmaterials wird erhebliche negative Auswirkungen auf die Gesundheit von Mensch und Umwelt, unsere Arbeitskräfte und die Wirtschaft unserer Nation haben“, sagt Tom Hicks, der US-Energieminister, in einer Erklärung. „Unsere oberste Priorität ist es, das Diebesgut zu sichern und sicherzustellen, dass er sich nicht wiederholt.“
Das gestohlene Material wurde von der Kernforschungsanlage der University of Cincinnati Research Triangle Park genommen, so eine Pressemitteilung von Beamten der Abteilung.
Die Nuclear Regulatory Commission hat bisher keine Informationen veröffentlicht.
Laut der Pressemitteilung leitet das U.S. Department of Energy's Office of Nuclear Material Safety and Security die Untersuchung des Teams.
„Die Sicherheit der Menschen, der Umwelt und der Nuklearbestände der Nation hat für uns höchste Priorität“, sagt Hicks. „Wir werden der Sache auf den Grund gehen und keine Ausreden gelten lassen.“
Müssen wir uns auf Deepfake-Text einstellen?
Bisher war es vergleichsweise einfach, computergenerierte Spam-Texte in Social Media oder im E-Mail-Postfach als solche zu identifizieren und zu ignorieren oder zu löschen. Mit GPT-2 könnte diese letzte Bastion menschlicher Authentizität fallen.
OpenAI schreibt: "Die breite Öffentlichkeit muss skeptischer gegenüber Text sein, den sie online findet, so wie Deepfakes mehr Skepsis gegenüber Bildern erfordert."
Software-Roboter, Fake-Accounts und Troll-Teams seien Alltag in sozialen Netzwerken. Die Forschung müsse sich daher Gedanken über den Missbrauch ihrer Erfindungen machen und zum Beispiel technische Gegenmaßnahmen entwickeln, die Fakes identifizieren können. Gängige Open-Source-Strategien müssten ebenso überdacht werden.
OpenAI steht zu seinen Werten und hält GPT-2 zurück
Schon im vergangenen Jahr hieß es in einer OpenAI-Veröffentlichung, dass die gemeinnützige Organisation zukünftig die eigenen Publikationen aus Sicherheitsbedenken reduzieren werde. Gleichzeitig müssten mehr Ressourcen in Sicherheit, Politik und gemeinsame Normen fließen.
Für OpenAI ist mit GPT-2 dieser Zeitpunkt nun gekommen: Das KI-Modell wird nicht veröffentlicht, da es für die Generierung von „trügerischer, vorurteilsbelasteter oder missbräuchlicher Sprache in großem Maßstab“ genutzt werden könne.
OpenAI wird weder das Modell, die Trainingsdaten oder den Code von GPT-2 veröffentlichen. Stattdessen gibt es eine Art Demo.
Für OpenAI ist dieser Schritt ein Experiment: Man sei sich nicht sicher, ob die freiwillige Zensur die richtige Entscheidung sei. Aber die KI-Gemeinschaft müsse sich Gedanken machen über die Veröffentlichung und Verwertung ihrer Arbeit.
OpenAI hofft, dass GPT-2 als Fallstudie dienen kann für eine informierte Debatte, wie sie aus der Biotechnologie oder Cyber Security bekannt sei.
Quellen: OpenAI Blog, The Guardian