OpenAI-Mitgründer Sam Altman warnt davor, den KI-Textgenerator ChatGPT für wichtige Inhalte zu verwenden.
Noch schneller und intensiver als bei Bildgeneratoren kam KI-Technik durch ChatGPT im Mainstream an. Bei Twitter trendet #ChatGPT, unzählige Medien, kleine und große, berichten über die erstaunlichen Antworten und Textinhalte von OpenAIs neuestem Textmodell. Manche machen an ChatGPT gar den Durchbruch Künstlicher Intelligenz fest, die erste Instanz eines neuen Computer-Zeitalters.
Die große Resonanz zeigt vorrangig: Training mit menschlichem Feedback funktioniert. Denn dass ChatGPT so gut ankommt, hat wahrscheinlich weniger mit dem ausgegebenen Text oder Code zu tun, der qualitativ auf Augenhöhe ist mit dem, was GPT-3.5 seit Anfang 2022 und GPT-3 seit 2020 generiert.
Das Erstaunen rund um ChatGPT ist viel mehr mit dem Interface zu erklären: Die mit menschlichem Feedback auf Dialoge optimierte KI scheint seine Gesprächspartner:innen fast immer zu verstehen. Das System hat selbst auf schlampig geschriebene Anweisungen noch probate Antworten parat. Das hat man so noch nicht erlebt.
ChatGPT verschiebt Grenzen, aber überwindet sie nicht
Manch einer sieht schon eine Wachablösung für Googles Quasi-Monopol bei Suchmaschinen. Anstatt einen Begriff zu suchen und dann Webseiten abzuklappern, lässt man einfach ChatGPT Antworten auf die eigenen Fragen generieren.
Doch dieses Szenario dürfte noch weiter in der Zukunft liegen, wenn es überhaupt eintritt: ChatGPT verschiebt zwar Grenzen großer Sprachmodelle, doch die Dialog-KI überwindet sie noch nicht.
ChatGPT leidet weiter unter den grundlegenden Probleme aktueller Sprachmodelle:
- Die Systeme denken sich manche Informationen schlicht aus,
- präsentieren diese dennoch mit großem Selbstbewusstsein in geschliffenem Wort,
- bieten aber keine Einschätzung zur Verlässlichkeit der Information
- und keinerlei Quellentransparenz.
- Zudem können große Sprachmodelle Vorurteile verstärken und neue generieren.
Für diese Probleme gibt es Lösungsansätze, aber eben noch keine Lösungen.
Google stellte seinerseits schon vor Monaten eigene große Sprachmodelle wie PaLM vor - LaMDA für Dialoge - rollte sie aber unter anderem wegen oben erwähnter Sicherheitsbedenken bislang nicht aus. Natürlich, das kommt hinzu, hat Google mit Blick aufs eigene Geschäftsmodell mit Suchmaschinenwerbung mehr Fragen zu klären, müsste sich in Teilen selbst neu erfinden - und kann daher nicht wie OpenAI vorpreschen.
Die Wissensschafts-Community kassierte Metas Wissenschaftssprachmodell Galactica ebenfalls wegen Bedenken zu Sicherheit und Verlässlichkeit ein. Und die Code-Plattform Stack Overflow hatte den Nonsens von ChatGPT innerhalb weniger Tage satt.
OpenAI-Mitgründer tritt auf die Bremse
OpenAI-Mitgründer Sam Altman weiß um die Schwächen von ChatGPT - und hebt sie bei Twitter explizit hervor. Das mag in Teilen (falsche) Bescheidenheit oder geschicktes Erwartungsmanagement sein, aber es ist auch die Wahrheit.
ChatGPT sei "unglaublich limitiert", schreibt Altman, aber "gut genug in einigen Dingen, um den irreführenden Eindruck von Großartigkeit zu erwecken."
Derzeit sei es ein Fehler, ChatGPT für wichtige Aufgaben einzusetzen. Das System sei ein Ausblick auf Fortschritt, in puncto Robustheit und Verlässlichkeit gebe es noch viel Arbeit zu tun, schreibt Altman.
Für kreative Inspiration sei ChatGPT großartig geeignet, jedoch nicht für zuverlässige Antworten auf Sachfragen. "Wir müssen hart arbeiten, um besser zu werden", schreibt Altman.
Interessanter als ChatGPT, das noch immer auf GPT-3 basiert, wird daher der Qualitätssprung mit GPT-4 im kommenden Jahr sein. Gerüchteweise soll das System im ersten Quartal 2023 vorgestellt werden.
Microsoft-CTO Scott Stein versprach vor wenigen Tagen, dass 2023 das "spannendste KI-Jahr jemals" werden würde. Microsoft ist Großinvestor bei OpenAI, Stein könnte demnach den Entwicklungsstand von GPT-4 kennen.