Skip to content

OpenAI bringt verbessertes GPT-4 Modell in ChatGPT und über API

Image description
OpenAI

Kurz & Knapp

  • OpenAI hat Verbesserungen am GPT-4 Turbo Modell angekündigt, die nun in ChatGPT verfügbar sind. Das aktualisierte multimodale Modell ist in der Lage, Text und Bilder mit nur einem API-Aufruf zu analysieren und Schlussfolgerungen zu ziehen.
  • Das neue GPT-4 Modell zeigt Verbesserungen in verschiedenen Benchmarks, insbesondere in den Bereichen Mathematik und Coding. So verbesserte es sich im MATH-Benchmark um 8,9% und im HumanEval-Benchmark, der die Fähigkeit misst, Code zu verstehen und zu generieren, um 1,6%.
  • Bildabfragen unterstützen nun gängige API-Funktionen wie JSON-Modus und Funktionsaufrufe, was die Integration in Anwendungen erleichtern dürfte.

Update vom 12. April 2024:

Das aktualisierte GPT-4 ist jetzt in ChatGPT verfügbar. Das Modell sollte vorwiegend in Mathematik und Coding besser sein und zudem weniger herumreden.

Bild: OpenAI

In den Benchmarks zeigt sich das wie folgt:

  • MATH (Measuring Mathematical Problem Solving With the MATH Dataset): +8.9%, misst die Fähigkeit, mathematische Probleme zu lösen.
  • GPQA (A Graduate-Level Google-Proof Q&A Benchmark): +7.9%, misst die Fähigkeit, anspruchsvolle Fragen zu beantworten, die nicht durch einfache Google-Suchen beantwortet werden können.
  • MGSM (Multilingual Grade School Math Benchmark): +4.5%, misst die Fähigkeit, mathematische Probleme auf Grundschulniveau in mehreren Sprachen zu lösen.
  • DROP (A Reading Comprehension Benchmark Requiring Discrete Reasoning Over Paragraphs): +4.5%, misst das Leseverständnis und die Fähigkeit, diskrete Schlussfolgerungen aus Absätzen zu ziehen.
  • HumanEval (Evaluating Large Language Models Trained on Code): +1.6%, misst die Fähigkeit, Code zu verstehen und zu generieren, basierend auf menschlichen Bewertungen.
  • MMLU (Measuring Massive Multitask Language Understanding): +1.3%, misst das Verständnis und die Fähigkeit, Aufgaben aus verschiedenen Bereichen zu lösen.

Ursprünglicher Artikel vom 9. April 2024:

OpenAI rollt verbessertes GPT-4-Vision-Modell für ChatGPT und API aus

OpenAI hat Verbesserungen am GPT-4 Turbo-Modell in seiner API angekündigt, die bald auch in ChatGPT verfügbar sein werden.

Das neue multimodale GPT-4 Turbo-Modell (2024-04-09) mit Bildverarbeitung ist allgemein in der API verfügbar. Dieses Modell kann mit nur einem API-Aufruf sowohl Text als auch Bilder analysieren und Schlussfolgerungen ziehen. Bisher mussten Entwickler dafür separate Modelle verwenden.

Anfragen mit Bildern unterstützen nun auch gängige API-Funktionen wie den JSON-Modus und Funktionsaufrufe, was die Integration in Anwendungen und Arbeitsabläufe von Entwicklern erleichtern soll.

OpenAI demonstriert die Leistungsfähigkeit des neuen Modells anhand einiger Anwendungsfälle wie tldraw, das für eine Web-Interface-Zeichnung den passenden Code schreibt.

Video: Roberto Nickson

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren