Inhalt
summary Zusammenfassung

OpenAI-Mitgründer Sam Altman warnt davor, den KI-Textgenerator ChatGPT für wichtige Inhalte zu verwenden.

Anzeige

Noch schneller und intensiver als bei Bildgeneratoren kam KI-Technik durch ChatGPT im Mainstream an. Bei Twitter trendet #ChatGPT, unzählige Medien, kleine und große, berichten über die erstaunlichen Antworten und Textinhalte von OpenAIs neuestem Textmodell. Manche machen an ChatGPT gar den Durchbruch Künstlicher Intelligenz fest, die erste Instanz eines neuen Computer-Zeitalters.

Die große Resonanz zeigt vorrangig: Training mit menschlichem Feedback funktioniert. Denn dass ChatGPT so gut ankommt, hat wahrscheinlich weniger mit dem ausgegebenen Text oder Code zu tun, der qualitativ auf Augenhöhe ist mit dem, was GPT-3.5 seit Anfang 2022 und GPT-3 seit 2020 generiert.

Das Erstaunen rund um ChatGPT ist viel mehr mit dem Interface zu erklären: Die mit menschlichem Feedback auf Dialoge optimierte KI scheint seine Gesprächspartner:innen fast immer zu verstehen. Das System hat selbst auf schlampig geschriebene Anweisungen noch probate Antworten parat. Das hat man so noch nicht erlebt.

Anzeige
Anzeige

ChatGPT verschiebt Grenzen, aber überwindet sie nicht

Manch einer sieht schon eine Wachablösung für Googles Quasi-Monopol bei Suchmaschinen. Anstatt einen Begriff zu suchen und dann Webseiten abzuklappern, lässt man einfach ChatGPT Antworten auf die eigenen Fragen generieren.

Doch dieses Szenario dürfte noch weiter in der Zukunft liegen, wenn es überhaupt eintritt: ChatGPT verschiebt zwar Grenzen großer Sprachmodelle, doch die Dialog-KI überwindet sie noch nicht.

ChatGPT leidet weiter unter den grundlegenden Probleme aktueller Sprachmodelle:

  • Die Systeme denken sich manche Informationen schlicht aus,
  • präsentieren diese dennoch mit großem Selbstbewusstsein in geschliffenem Wort,
  • bieten aber keine Einschätzung zur Verlässlichkeit der Information
  • und keinerlei Quellentransparenz.
  • Zudem können große Sprachmodelle Vorurteile verstärken und neue generieren.

Für diese Probleme gibt es Lösungsansätze, aber eben noch keine Lösungen.

Google stellte seinerseits schon vor Monaten eigene große Sprachmodelle wie PaLM vor - LaMDA für Dialoge - rollte sie aber unter anderem wegen oben erwähnter Sicherheitsbedenken bislang nicht aus. Natürlich, das kommt hinzu, hat Google mit Blick aufs eigene Geschäftsmodell mit Suchmaschinenwerbung mehr Fragen zu klären, müsste sich in Teilen selbst neu erfinden - und kann daher nicht wie OpenAI vorpreschen.

Empfehlung

Die Wissensschafts-Community kassierte Metas Wissenschaftssprachmodell Galactica ebenfalls wegen Bedenken zu Sicherheit und Verlässlichkeit ein. Und die Code-Plattform Stack Overflow hatte den Nonsens von ChatGPT innerhalb weniger Tage satt.

OpenAI-Mitgründer tritt auf die Bremse

OpenAI-Mitgründer Sam Altman weiß um die Schwächen von ChatGPT - und hebt sie bei Twitter explizit hervor. Das mag in Teilen (falsche) Bescheidenheit oder geschicktes Erwartungsmanagement sein, aber es ist auch die Wahrheit.

ChatGPT sei "unglaublich limitiert", schreibt Altman, aber "gut genug in einigen Dingen, um den irreführenden Eindruck von Großartigkeit zu erwecken."

Derzeit sei es ein Fehler, ChatGPT für wichtige Aufgaben einzusetzen. Das System sei ein Ausblick auf Fortschritt, in puncto Robustheit und Verlässlichkeit gebe es noch viel Arbeit zu tun, schreibt Altman.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Für kreative Inspiration sei ChatGPT großartig geeignet, jedoch nicht für zuverlässige Antworten auf Sachfragen. "Wir müssen hart arbeiten, um besser zu werden", schreibt Altman.

Interessanter als ChatGPT, das noch immer auf GPT-3 basiert, wird daher der Qualitätssprung mit GPT-4 im kommenden Jahr sein. Gerüchteweise soll das System im ersten Quartal 2023 vorgestellt werden.

Microsoft-CTO Scott Stein versprach vor wenigen Tagen, dass 2023 das "spannendste KI-Jahr jemals" werden würde. Microsoft ist Großinvestor bei OpenAI, Stein könnte demnach den Entwicklungsstand von GPT-4 kennen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • ChatGPT verschiebt Grenzen - aber überwindet sie nicht. Das System generiert wie andere große Sprachmodelle regelmäßig eklatante Falschinformation.
  • OpenAI-Mitgründer Sam Altman warnt daher davor, ChatGPT für wichtige Inhalte zu verwenden.
  • Das System eigne sich insbesondere für kreative Aufgaben und Inspiration.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!