Inhalt
summary Zusammenfassung

Der KI-Experte Andrej Karpathy erklärt, dass Nutzer beim "Fragen einer KI" eigentlich nur mit den durchschnittlichen Antworten menschlicher Datenbeschrifter interagieren.

Anzeige

Der ehemalige OpenAI-Forscher Andrej Karpathy räumt mit überzogenen Vorstellungen von KI-Systemen auf. Seiner Meinung nach sind die KI-Modelle hinter ChatGPT und Co. im Grunde nur auf die Nachahmung menschlicher Datenbeschrifter trainiert.

"Man fragt nicht irgendeine magische KI. Man befragt einen menschlichen Datenbeschrifter, dessen durchschnittliches Wesen verlustreich in […] LLMs destilliert wurde", sagt Karpathy.

Karpathy erklärt dies am Beispiel einer typischen Tourismusfrage: Wenn ein Nutzer nach den "Top 10 Sehenswürdigkeiten in Amsterdam" fragt, basiere die Antwort der KI auf der Arbeit eines menschlichen Datenbeschrifters, der eine ähnliche Frage kurz recherchiert und beantwortet hat.

Anzeige
Anzeige

Bei Fragen, die nicht im Trainingsdatensatz enthalten sind, erzeugt das System eine statistisch ähnliche Antwort, die auf dem Wissen aus dem Training mit vielen Daten basiert, aber den Stil der von Menschen gegebenen Antworten imitiert.

Besonders kritisch sieht Karpathy daher Vorschläge, KI-Systeme zu komplexen politischen Fragen wie optimaler Regierungsführung zu befragen. Die Antwort der KI sei im Wesentlichen das, was man eine Stunde später erhalten würde, wenn man die Frage direkt an das Beschrifterteam stellen würde.

"Das wäre, als würde man Mary aus Ohio für 10 Dollar beauftragen, die Frage innerhalb von 30 Minuten zu recherchieren - unter strikter Einhaltung eines 100-seitigen Regelwerks des KI-Unternehmens zur Beantwortung solcher Fragen", sagt Karpathy.

Feinabstimmung prägt den "Charakter" der KI

Das Training von LLMs erfolgt gewöhnlich in zwei Schritten: Zunächst lernt die KI aus vielen Internetdokumenten und Inhalten aller Art.

In der anschließenden Feinabstimmung wird sie mit Gesprächen zwischen "Mensch" und "Assistent" trainiert, wobei die Rolle des Assistenten von menschlichen Annotatoren vorgegeben wird.

Empfehlung

Durch diesen Prozess lernt die KI, sich wie ein hilfreicher und harmloser Assistent zu verhalten. Sie behält ihr Vorwissen, passt sich aber dem Stil der Feinabstimmungsdaten an.

Karpathy erklärt auch, warum Sprachmodelle auf strittige Fragen oft mit "Das ist eine umstrittene Frage" antworten: Die Beschrifter werden in ihren Schulungsunterlagen angewiesen, solche Formulierungen zu verwenden, um Neutralität zu wahren.

KI-Antworten können Expertenantworten simulieren

Für spezielle Fachgebiete würden entsprechende Experten als Datenbeschrifter eingesetzt. So werden laut Karpathy für medizinische Fragen Ärzte und für mathematische Probleme sogar Spitzenmathematiker wie Terence Tao engagiert. Dabei muss nicht jede einzelne Frage bearbeitet werden, sondern es genügt, so viele Fragen zu beantworten, dass das System lernt, einen Profi zu simulieren.

Das bedeutet jedoch nicht, dass KI-Modelle tatsächlich alle Fragen auf dem Niveau dieser Experten beantworten können. Das zugrundeliegende Wissen und die Argumentationsfähigkeiten seien im Modell möglicherweise einfach nicht vorhanden. Dennoch seien die Antworten deutlich besser als die eines durchschnittlichen Internetnutzers.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Dieses sogenannte Reinforcement Learning from Human Feedback (RLHF), das als wichtiger Baustein für den Erfolg von ChatGPT gilt, hatte Karpathy bereits zuvor kritisiert. Er bezeichnet es als Notlösung, da es im Gegensatz zu "echtem" Reinforcement Learning, wie es beispielsweise bei Deepminds AlphaGo zum Einsatz kommt, keine objektiven Erfolgskriterien gibt.

Karpathy ist einer von mehreren hochrangigen KI-Experten, die OpenAI in diesem Jahr verlassen haben. Vor kurzem gründete er sein eigenes Start-up für KI im Bildungsbereich.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ex-OpenAI-Forscher Andrej Karpathy erklärt, dass Nutzer beim "Fragen einer KI" eigentlich nur mit den durchschnittlichen Antworten menschlicher Datenbeschrifter interagieren und nicht mit einer "magischen KI".
  • Das Training von KI-Systemen erfolgt in zwei Schritten: Zunächst lernt die KI aus vielen Internetdokumenten, anschließend wird sie mit Gesprächen zwischen "Mensch" und "Assistent" trainiert, wobei die Rolle des Assistenten von menschlichen Annotatoren vorgegeben wird. Die KI lernt, diese Rolle zu imitieren.
  • Für spezielle Fachgebiete würden entsprechende Experten als Datenlabeler eingesetzt, dennoch bedeute das nicht, dass KI-Modelle alle Fragen auf dem Niveau dieser Experten beantworten können, da das zugrundeliegende Wissen und die Argumentationsfähigkeiten im Modell möglicherweise nicht vorhanden sind.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!