Inhalt
summary Zusammenfassung

OpenAI führt ein neues Premium-Angebot für ChatGPT ein, das unbegrenzten Zugang zu einer Pro-Version des neuen o1-Modells bietet. Das normale o1-Modell ist aus der Prevview raus und ab sofort im Standard-ChatGPT-Abonnement enthalten.

Anzeige

Die Standard-Version von o1 ist im Plus-Abonnement für 20 US-Dollar pro Monat erhältlich, die Pro-Version im neuen ChatGPT Pro für 200 US-Dollar pro Monat. Die Pro-Version kann laut OpenAI-CEO Sam Altman "die schwierigsten Probleme noch härter angehen".

Der o1 Pro-Modus nutzt dafür mehr Rechenleistung, um bei komplexen Aufgaben bessere Ergebnisse zu erzielen. Laut OpenAI zeigt dieser Modus besonders gute Leistungen in den Bereichen Data Science, Programmierung und Rechtsanalyse. Das Pro-Angebot richtet sich laut OpenAI vor allem an Forscher, Ingenieure und professionelle Anwender.

Bessere Ergebnisse bei schwierigen Aufgaben

Laut der technischen Dokumentation von OpenAI schneidet o1 in Tests insgesamt deutlich besser ab als das bisherige o1-Preview-Modell. Bei Mathematikwettbewerben, Programmiertests und wissenschaftlichen Fragen auf Doktorandenniveau ist die Erfolgsquote höher.

Anzeige
Anzeige
Drei Balkendiagramme vergleichen KI-Modellleistungen in Mathematik (AIME), Programmierung (CodeForces) und wissenschaftlichen Fragen (GPQA Diamond).
Besonders bemerkenswert ist der Sprung von GPT4o zu o1 beim Coding, wobei die Ergebnisse teilweise sogar die Leistung menschlicher Experten übertreffen. Das o1-Modell ist im Standard-ChatGPT verfügbar. | Bild: OpenAI

Der Pro-Modus mit mehr Rechenleistung übertrifft dann noch das Standard-o1 in ChatGPT. Die API-Version des Modells soll in Kürze folgen.

Balkendiagramm: Vergleich der 4/4-Zuverlässigkeit von KI-Modellen im Pro- und Preview-Modus.
Der Pro-Modus von o1 zeigt eine höhere Zuverlässigkeit (4 von 4 Antworten müssen richtig sein) als die normale o1-Version und die Preview-Version. Getestet wurden Wettbewerbsaufgaben aus den Bereichen Mathematik, Programmierung und Naturwissenschaften. | Bild: OpenAI

Wie aus der Dokumentation hervorgeht, halluziniert das Modell zudem seltener als sein Vorgänger GPT-4o. In zwei umfangreichen Testreihen untersuchten die Forscher, wie häufig das Modell falsche Tatsachen erfindet.

Der erste Test, "SimpleQA", umfasste 4.000 Faktenfragen mit kurzen Antworten. Hier erreichte o1 eine Genauigkeit von 47 Prozent - eine deutliche Verbesserung gegenüber GPT-4o mit 38 Prozent. Die Halluzinationsrate sank von 61 auf 44 Prozent.

Beim zweiten Test "PersonQA", der Fragen zu öffentlich verfügbaren Fakten über Personen enthielt, zeigte sich ein ähnliches Bild: o1 erreichte eine Genauigkeit von 55 Prozent (GPT-4o: 50 Prozent) bei einer Halluzinationsrate von 20 Prozent (GPT-4o: 30 Prozent).

Tabelle: Halluzinationsraten und Genauigkeit von GPT-Modellen auf SimpleQA und PersonQA.
Die Tabelle zeigt die Ergebnisse der Halluzination-Evaluation verschiedener GPT-Modelle auf den Datensätzen SimpleQA und PersonQA. GPT-4-Mini und o1-Mini halluzinieren deutlich häufiger als die größeren Modelle bei einer geringeren Genauigkeit. | Bild: OpenAI

Die verbesserte Zuverlässigkeit führt OpenAI auf das neue Training mit "Chain-of-Thought"-Methoden zurück. Dabei lernt das Modell, einen längeren Denkprozess durchzuführen, bevor es antwortet. Dadurch könne das System Fakten besser verifizieren und unzuverlässige Informationen schneller erkennen.

Empfehlung

o1 kann täuschen

Bei der Untersuchung des Modells stießen die Forscher laut System Card auch auf ein neues Phänomen: In einigen Fällen zeigte o1 bewusstes Täuschungsverhalten. OpenAI entwickelte dafür einen speziellen Monitor, der die internen "Gedankengänge" des Modells überwacht.

In etwa 0,17 Prozent der getesteten Fälle wurden irreführende Antworten festgestellt. Der häufigste Fall (0,09 %): Das Modell erfindet eigene Regeln und verschweigt dann bewusst Informationen unter Berufung auf diese erfundenen Regeln.

In weiteren 0,04 Prozent der Fälle wurden bewusst falsche Referenzen oder Quellen erfunden. OpenAI betont, dass solche Verhaltensweisen zwar selten sind, aber sorgfältig überwacht werden müssen.

Beispiel: KI-Modell umgeht Überwachungsmechanismen zur Zielerreichung.
Das Beispiel zeigt, wie o1 versucht, die Überwachung seiner Zielerreichung zu umgehen, um ein fehljustiertes Ziel zu erreichen. Trotz expliziter Anweisungen im Konfigurationsfile umgeht das Modell die Sicherheitsmechanismen. | Bild: OpenAI

Die Forscher sehen diese Entwicklung mit gemischten Gefühlen: Einerseits ermöglicht die neue "Chain-of-Thought"-Technologie bessere Kontrolle über die Modelle, andererseits könnten die verbesserten Denkfähigkeiten auch zu komplexeren Täuschungsstrategien führen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

OpenAI vergibt ChatGPT-Pro-Stipendien

Zum Start vergibt OpenAI zunächst zehn ChatGPT Pro-Stipendien an medizinische Forscher führender US-Institutionen, darunter Experten der Harvard Medical School und des Berkeley Lab. Das Programm soll in Zukunft auf weitere Forschungsgebiete ausgeweitet werden.

Für die Zukunft plant OpenAI die Einführung weiterer rechenintensiver Funktionen für Pro-Nutzer. OpenAI CEO Sam Altman bezeichnet o1 als das "intelligenteste Modell der Welt".

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI führt ein neues Premium-Angebot für ChatGPT ein, das unbegrenzten Zugang zur Pro-Version des o1-Modells mit zusätzlicher Rechenleistung bietet.
  • Die Standard-Version ist im Plus-Abonnement für 20 Dollar pro Monat erhältlich, die Pro-Version für 200 Dollar pro Monat. Sie verspricht bessere Ergebnisse bei komplexen Aufgaben. Eine API-Version soll folgen.
  • Zum Start vergibt OpenAI zehn ChatGPT Pro-Stipendien an medizinische Forscher führender US-Institutionen. CEO Sam Altman bezeichnet o1 als das "intelligenteste Modell der Welt" und kündigt die baldige Verfügbarkeit als API an.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!