OpenAI-CEO Sam Altman findet deutliche Worte zum GPT-4-Hype. Dem Bildungssystem rät er ab, auf KI-Text-Detektoren zu setzen.
Als "lächerliche Sache" bezeichnet Altman die Gerüchteküche rund um GPT-4. Bei Twitter und Co. gehen seit Wochen Gerüchte um gigantische Modellgrößen um, von denen Altman "keine Ahnung hat, woher das alles kommt."
OpenAI-Mitgründer und Chefwissenschaftler Ilya Sutskever macht es noch deutlicher: Er veröffentlicht bei Twitter eine Parodie auf das seit Monaten kursierende Bild, das ein vermeintlich gigantisches GPT-4-Modell neben einem kleinen GPT-3-Modell zeigt. Es soll einen enormen Leistungssprung suggerieren. Doch die Parameter sind aus der Luft gegriffen.
— Ilya Sutskever (@ilyasut) January 20, 2023
GPT-4 is going to launch soon.
And it will make ChatGPT look like a toy...→ GPT-3 has 175 billion parameters
→ GPT-4 has 100 trillion parametersI think we're gonna see something absolutely mindblowing this time!
And the best part? 👇 pic.twitter.com/FAB5gFjveb
— Simon Høiberg (@SimonHoiberg) January 11, 2023
Diese Postings beziehen sich zudem nur auf die Anzahl Parameter des KI-Modells, um dessen Leistungsfähigkeit zu hypen. Altman deutete jedoch schon im September 2021, dass sich GPT-4 womöglich eher durch die Effizienz und Datenqualität von GPT-3 unterscheidet als durch die schiere Parameteranzahl.
Modelle wie Chinchilla oder Sparse Luminous Base zeigen, dass Sprachsysteme mit weniger Parametern, aber einer effizienteren Architektur und mit mehr Daten, ebenfalls gute Ergebnisse erzielen können.
"Die Leute betteln darum, enttäuscht zu werden - und das werden sie", sagt Altman über eine mögliche Erwartung, dass OpenAIs GPT-4 bereits Fähigkeiten einer generellen KI haben könnte.
Altman glaubt an Wertevielfalt in Sprachmodellen
OpenAI und viele andere Unternehmen befassen sich intensiv mit der Sicherheit von Sprachmodellen, die neben der Korrektheit der Informationen auch deren Werte umfasst. Sie sollen etwa keine Hassrede generieren.
Altman glaubt, dass in Zukunft eine Vielfalt solcher Modelle mit unterschiedlichen Werten existieren werden - von vollständig sicher bis "exzentrisch und kreativ". In der nächsten Ausbaustufe könnten dann Nutzer:innen dem KI-System Input geben, wie es sich verhalten und welche Werte es annehmen soll.
Altman möchte sich nicht weiter zu Googles Aussagen äußern, dass Chatbots noch nicht sicher genug sind, um auf breiter Front eingesetzt zu werden. Er hoffe jedoch, dass Journalisten Google auf diese Aussage hinweisen werden, wenn sie trotzdem ein Produkt auf den Markt bringen. Der Suchkonzern plant für 2023 angeblich eine Chatbot-Suche mit Fokus auf Sicherheit und bis zu 20 KI-Produkte.
Bildungssystem soll sich nicht auf KI-Text-Detektoren verlassen
Sprachmodelle wie ChatGPT oder GPT-3 bieten Schüler:innen und Studierenden eine Hausaufgaben- und Aufsatzautomatik. Mit den Werkzeugen können sie Texte schneller schreiben oder sogar vollständig automatisch generieren. Die Technologie wird im Bildungssystem daher kontrovers diskutiert - sollte man ihren Einsatz fördern und Lernende befähigen, oder KI-Systeme besser verbieten?
"Ich verstehe, warum das Bildungssystem das so empfindet. [...] Wir werden uns kurzfristig um Lösungen bemühen und womöglich können wir Lehrenden und anderen helfen, den Output eines GPT-Systems zu erkennen", sagt Altman.
Jedoch solle sich die Gesellschaft langfristig nicht auf diese Lösungen verlassen, da eine "entschlossene Person" Wege finden würde, diese Detektoren zu umgehen. Sie seien wichtig für die Übergangsphase, aber es sei unmöglich, perfekte Detektoren zu entwickeln.
OpenAI arbeitet an einer Wasserzeichentechnologie für die eigenen Sprachmodelle. Solche Systeme könnten aber laut Altman innerhalb weniger Monate nach Veröffentlichung irrelevant werden.
"Wir leben in einer neuen Welt, in der wir uns an generierten Text adaptieren müssen. Das ist okay", sagt Altman und zieht einen Vergleich zum Aufkommen von Taschenrechnern. Sprachmodelle seien "extremer", böten dafür aber auch "extreme Vorteile".