Inhalt
summary Zusammenfassung

Eine allgemeine künstliche Intelligenz ist das große Ziel von OpenAI. Was das genau ist, ist allerdings noch Gegenstand der Diskussion.

Laut Sam Altman, CEO von OpenAI, wären Systeme wie GPT-4 oder GPT-5 vor zehn Jahren "für viele Leute" noch als AGI durchgegangen. "Jetzt ist es nur noch ein netter kleiner Chatbot", sagt Altman.

Das von Altman beschriebene Phänomen hat einen Namen: Es heißt "KI-Effekt", und der Computerwissenschaftler Larry Tesler hat es wie folgt auf den Punkt gebracht: "KI ist das, was bisher nicht erreicht wurde."

AGI auf der Suche nach einer Definition

Der KI-Effekt zeigt, wie schwierig es ist, Intelligenz zu definieren, und wie unterschiedlich der Begriff in verschiedenen Kontexten wie Verhalten oder Kognition verwendet wird.

Anzeige
Anzeige

Altman sieht darin zunächst kein Problem: "Ich finde es großartig, dass sich die Grenzen verschieben. Dann müssen wir uns eben mehr anstrengen."

Allerdings nähere sich die Technologie einem Stadium, das dem Verständnis von OpenAI durch AGI zumindest so nahe komme, dass man sich spätestens in den nächsten zehn Jahren auf eine Definition einigen müsse, so Altman.

OpenAIs Technologiechefin Mira Murati definiert AGI als ein System, das in vielen Bereichen verallgemeinern und menschliche Arbeit übernehmen kann. Altman geht davon aus, dass KI zunächst durchschnittliche Leistungen übernehmen wird, dass aber menschliche Expertinnen und Experten in ihren Bereichen weiterhin bessere Leistungen erbringen werden als die Maschine.

Beide OpenAI-Vertreter halten KI für das wichtigste Werkzeug für den menschlichen Fortschritt in den kommenden Jahrzehnten. Sie sind sich einig, dass KI zu großen Umwälzungen in der Arbeitswelt führen könnte. Es sei wichtig, sich auf diese Veränderungen vorzubereiten und möglichst viele Menschen in die Diskussion über KI einzubeziehen.

Altman fügte hinzu, dass die Systeme persönlicher würden. Es sei daher wichtig, dass die Menschen weiterhin verstünden, dass KI ein Werkzeug und keine Person sei.

Empfehlung

Gute Beziehung zu Microsoft, kein Update zu GPT-5

Zum Stand bei GPT-5 wollten sich weder Altman noch Murati konkret äußern. OpenAI arbeitet ständig an neuen Technologien, so Murati. Je leistungsfähiger das System werde, desto wichtiger würden die Themen Zuverlässigkeit und Sicherheit.

Ob GPT-5 zum Beispiel keine Fehler, auch Halluzinationen genannt, mehr produziert, ist laut Murati eine offene Forschungsfrage. "Wir wissen es nicht, das ist Forschung", sagt Murati, die dennoch Optimismus verbreitet.

Microsoft-Gründer Bill Gates hält es für möglich, dass die von OpenAI verwendete Technologie bereits ein Plateau erreicht hat.

Altman äußert sich auch zur Beziehung zu Microsoft. Es soll Spannungen zwischen OpenAI und seinem Hauptinvestor geben, zum Beispiel wegen unterschiedlicher Einstellungen zum Thema Sicherheit und weil beide mit ähnlichen Produkten um die gleichen Zielgruppen kämpfen. "

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

"Wir haben unsere Auseinandersetzungen, aber die Beziehung ist wirklich gut und wir haben die gleichen Ziele", sagt Altman.

Neue Standards für KI-Trainingsdaten

Altman betonte, dass es für zukünftige Systeme wichtig sei, Daten für das KI-Training mit Zustimmung der Menschen zu verwenden und neue Standards für die Datennutzung zu entwickeln. Zustimmung bedeute nicht notwendigerweise eine bezahlte Freigabe.

Altman deutet an, dass Beteiligte Daten freiwillig zur Verfügung stellen könnten, wenn sie den gesamtgesellschaftlichen Nutzen von KI besser verstehen würden. OpenAI experimentiere in diesem Bereich, auch mit bezahlten Partnerschaften.

KI-Modelle könnten mit zunehmender Intelligenz weniger Trainingsdaten benötigen, wodurch sich der Schwerpunkt von der Menge auf den Wert der verwendeten Daten verlagern würde.

"Was in Zukunft zählt, sind besonders wertvolle Daten", sagt Altman. Der Beweis für diese These sei die Art und Weise, wie Menschen lernen. OpenAI und andere KI-Unternehmen sind derzeit in zahlreiche Gerichtsverfahren wegen angeblicher Urheberrechtsverletzungen bei der Verwendung urheberrechtlich geschützter Daten für das KI-Training verwickelt.

Das vollständige Interview mit Altman und Murati ist im folgenden Video zu sehen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das Ziel von OpenAI unter der Leitung von CEO Sam Altman ist die Entwicklung einer allgemeinen Künstlichen Intelligenz (AGI). Die Definition und das Verständnis von KI entwickeln sich ständig weiter.
  • Systeme wie GPT-4 oder GPT-5, die vor zehn Jahren noch als AGI gegolten hätten, würden heute als "nette kleine Chatbots" angesehen, so Altman.
  • Altman betont die Notwendigkeit, Daten für das KI-Training mit dem Einverständnis der Menschen zu nutzen und neue Standards für die Datennutzung zu entwickeln.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!