Inhalt
summary Zusammenfassung

OpenAIs o1 ist ab sofort über die API verfügbar. Das Modell unterstützt nun auch Funktionsaufrufe, strukturierte Ausgaben im JSON-Format sowie die Analyse von Bildern.

Anzeige

Wie OpenAI mitteilt, übertrifft das neue Modell mit der Bezeichnung "o1-2024-12-17" seinen indirekten Vorgänger "o1-preview" deutlich: Bei mathematischen Aufgaben erreicht es eine Genauigkeit von 96,4 Prozent (vorher: 85,5 Prozent) und bei Programmieraufgaben 76,6 Prozent (vorher: 52,3 Prozent).

Auch bei Function Calling und strukturierten Ausgaben soll o1 deutlich besser sein als der Vorgänger. Zudem benötigt es laut OpenAI im Durchschnitt 60 Prozent weniger Tokens für Reasoning-Aufgaben als o1-preview, was sich positiv auf die Geschwindigkeit und die Kosten auswirkt.

Das neue o1-Modell ist auch in ChatGPT verfügbar. Es soll umfangreichere und korrektere Antworten geben und Prompts weniger oft ablehnen. Menschen hätten das neue o1-Modell konsistent besser bewertet.

Anzeige
Anzeige

Eine weitere Neuerung betrifft die Realtime API: OpenAI senkt die Preise für Audio-Funktionen um 60 Prozent. Input-Tokens kosten nun 40 Dollar pro Million, Output-Tokens 80 Dollar pro Million. Für zwischengespeicherte Audio-Eingaben sinken die Kosten sogar um 87,5 Prozent auf 2,50 Dollar pro Million Tokens.

Zusätzlich führt OpenAI eine kostengünstigere Variante ein: Das neue GPT-4o mini-Modell ist laut OpenAI zu einem Zehntel der bisherigen Audio-Preise verfügbar. Konkret bedeutet das 10 Dollar pro Million Input-Tokens und 20 Dollar pro Million Output-Tokens.

Ebenfalls neu ist eine WebRTC-Integration ein, die es Entwicklern ermöglicht, Echtzeit-Sprachanwendungen mit wenigen Zeilen Code zu erstellen. Die maximale Sitzungsdauer wurde von 15 auf 30 Minuten erhöht.

Neue Finetuning-Option für Stil und Tonalität

Mit "Preference Fine-Tuning" stellt OpenAI eine neue Methode vor, um KI-Modelle an Nutzer- und Entwicklerpräferenzen anzupassen. Anders als beim bisherigen "Supervised Fine-Tuning" lernt das Modell dabei aus Paaren von bevorzugten und nicht bevorzugten Antworten.

Nach Angaben von OpenAI eignet sich diese Methode besonders für subjektive Aufgaben wie kreatives Schreiben oder Zusammenfassungen, bei denen Ton und Stil wichtig sind.

Empfehlung

Für Entwickler stellt OpenAI außerdem neue Software Development Kits (SDKs) für die Programmiersprachen Go und Java bereit. Diese ergänzen die bereits vorhandenen SDKs für Python, Node.js und .NET.

OpenAI gewährt schrittweise Zugriff, gestartet wird mit Stufe 5. In der API-Dokumentation finden Entwickler detaillierte Anleitungen für o1, die Echtzeit-API, die WebRTC-Integration und Preference Fine-Tuning.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI stellt das neue o1-Modell "o1-2024-12-17" für die API und ChatGPT vor, das bei mathematischen Aufgaben eine Genauigkeit von 96,4 Prozent und bei Programmieraufgaben 76,6 Prozent erreicht und im Durchschnitt 60 Prozent weniger Tokens für Reasoning-Aufgaben benötigt als der Vorgänger.
  • Die Realtime API von OpenAI wird günstiger: Input-Tokens für Audio-Funktionen kosten nun 40 Dollar pro Million, Output-Tokens 80 Dollar pro Million.
  • Mit "Preference Fine-Tuning" können KI-Modelle an Nutzer- und Entwicklerpräferenzen angepasst werden, indem sie aus Paaren von bevorzugten und nicht bevorzugten Antworten lernen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!