Inhalt
summary Zusammenfassung

Offensichtlich hat OpenAI mit dem Übergang zum All-GPT-4-Modell, das alle GPT-4-Modelle integriert, eine weitere wesentliche Änderung vorgenommen.

OpenAI rollt gerade das neue "GPT-4 (All Tools)"-Modell aus, das automatisch die besten Werkzeuge wie Browsing, Advanced Data Analytics oder DALL-E 3 auswählt.

Das Modell kann zudem deutlich längere Inhalte in einem Durchgang verarbeiten, nämlich bis zu 32.000 Token, was etwa 25.000 Wörtern entspricht. Dadurch können Nutzer etwa mit längeren PDFs ohne externe Vektordatenbank chatten. Hinzu kommt ein Kontextfenster von 2,7K für den System-Prompt.

Dies berichtet der Entwickler Dustin Miller auf twitter.com und beruft sich dabei auf einen Code-Fund. Ein anderer Nutzer bestätigt die Beobachtung anhand eines langen Dokuments mit 16.000 Wörtern, das ChatGPT mit GPT-4-All analysieren konnte.

Anzeige
Anzeige
ChatGPT bekommt PDF- und Datei-Chat mit GPT-4 für extra lange Dokumente | Bild: Dustin Miller

OpenAI stellte das 32K-Modell erstmals bei der Vorstellung von GPT-4 im März vor, beschränkte den Zugang aber zunächst auf ausgewählte Nutzerinnen und dann auf die Programmierschnittstelle, wohl auch aus Kostengründen. Das 32K-Modell ist noch teurer als das 8K-Modell, das über die API bereits 15x teurer ist als GPT-3.5.

Wenn OpenAI jetzt das 32K-Modell flächendeckend in ChatGPT einführt, könnte das bedeuten, dass es die Kostenseite besser im Griff haben. Interessant ist die Frage, ob das Unternehmen diesen Vorteil an die Entwicklergemeinde weitergeben wird. Ein geeigneter Zeitpunkt für eine Ankündigung wäre die OpenAI Entwicklerkonferenz am 6. November.

Der LLM-Wettbewerb nimmt zu

Ein weiterer Grund für die Erweiterung des Kontextfensters könnte sein, dass OpenAIs Hauptkonkurrent Anthropic den Rollout seines eigenen Chatbots Claude 2 im Web und über Programmierschnittstellen beschleunigt. Google und Amazon investierten zuletzt bis zu sechs Milliarden US-Dollar in Anthropic.

Das Alleinstellungsmerkmal von Claude 2 ist ein Kontextfenster von 100K (ca. 75.000 Wörter), also immer noch ca. dreimal so groß wie GPT-4 mit 32K, das aber immerhin ein deutliches Upgrade zum 8K-Kontextfenster (4.000 bis 6.000 Wörter) des ursprünglichen GPT-4-Modells in ChatGPT ist.

Außerdem steht Googles Gemini vor der Tür, das neben Multimodalität ebenfalls auf ein großes Kontextfenster setzen könnte.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI entwickelt das "GPT-4 (All Tools)"-Modell, das automatisch die besten Werkzeuge auswählt und bis zu 32.000 Token (ca. 25.000 Wörter) in einem Durchgang verarbeiten kann.
  • Die Fähigkeit, längere Inhalte zu verarbeiten, ermöglicht es Benutzern, mit längeren PDFs ohne externe Vektordatenbank zu interagieren, und bietet ein Kontextfenster von 2,7K für die Systemabfrage.
  • Die Einführung des 32K-Modells in ChatGPT könnte darauf hindeuten, dass OpenAI die Kostenseite besser im Griff hat. Die LLM-Konkurrenz nimmt jedoch ebenfalls zu, insbesondere durch Anthropic mit dem Chatbot Claude 2, der ein Kontextfenster von 100K hat.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!