Inhalt
summary Zusammenfassung

Die KI-Modelle von OpenAI können nun über die API auf Plugins zugreifen. GPT-3.5 erhält ein größeres Kontextfenster.

OpenAI erweitert die API um "Functions" für die Modelle gpt-4-0613 und gpt-3.5-turbo-0613. Diese Funktionsaufrufe ermöglichen über die API angebundenen Anwendungen einen präziseren Zugriff auf die Fähigkeiten der GPT-Modelle, wie z.B. die Ansteuerung externer Tools oder anderer APIs.

Beide Modelle wurden so weiterentwickelt, dass sie anhand der Benutzereingaben erkennen, wann eine Funktion aufgerufen werden soll - ähnlich wie ChatGPT mit aktivierten Plugins. Eine Eingabe wie "Sende eine E-Mail an" oder "Wie ist das Wetter in Stadt" wird automatisch in einen passenden Funktionsaufruf wie "send_email(to: string, body: string)" umgewandelt.

OpenAI weist auf bestehende Sicherheitslücken bei der Verwendung von Plugins hin, bei denen die Ausgabe eines nicht vertrauenswürdigen Plugins zu unerwünschten Reaktionen des Sprachmodells führen kann. Entwicklerinnen und Entwickler können ihre Anwendungen schützen, indem sie nur auf geprüfte Tools zugreifen und an bestimmten Stellen im Prozess, z.B. vor dem Versenden einer E-Mail, die Zustimmung der Benutzerinnen und Benutzer einholen.

Anzeige
Anzeige

GPT 3.5 mit vergrößertem Kontextfenster

Ein weiteres wesentliches Update ist das neue Modell gpt-3.5-turbo-061-16k, das mit 16k viermal mehr Kontext, also viermal mehr Satz- und Wortzeichen verarbeiten kann als das herkömmliche GPT-3.5 in ChatGPT. Benutzerinnen und Benutzer können sich daher in ihren Anfragen auf mehr Text gleichzeitig beziehen, beispielsweise ein größeres Dokument auf einmal analysieren oder Informationen aus verschiedenen Teilen des Dokuments extrahieren.

Darüber hinaus senkt OpenAI die Preise für das Embedding-Modell ada-002 um 75 Prozent auf $0.0001 pro 1000 Token und für GPT 3.5-turbo um 25 Prozent auf $0.0015 pro 1000 Input-Token und $0.002 pro 1000 Output-Token. Laut OpenAI entspricht dies etwa 700 Seiten Text für einen US-Dollar. Das neue 3.5-Modell mit 16K kostet $0.003 pro 1K Input-Token und $0.004 pro 1K Output-Token.

Diese Preissenkungen könnten darauf hindeuten, dass OpenAI in naher Zukunft effizientere und billigere Versionen von GPT-4 einführen wird, möglicherweise GPT-4.5. Auch beim Übergang von GPT-3 zu GPT-3.5 gab es eine Preissenkung für GPT-3.

Anwendungen, die die stabilen Modellnamen (gpt-3.5-turbo, gpt-4 und gpt-4-32k) verwenden, werden am 27. Juni automatisch auf die oben genannten neuen Modelle aktualisiert. Über die Evals-Bibliothek von OpenAI kann man testen, ob und wie sich die Modelländerungen auf Anwendungsfälle auswirken.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • GPT-3.5 und GPT-4 können nun über APIs auf Plugins und andere APIs zugreifen. Dies erweitert die Möglichkeiten externer GPT-Anwendungen.
  • Außerdem erhält GPT-3.5 per API ein 16k Kontextfenster, viermal größer als ChatGPT.
  • OpenAI senkt obendrein die API-Preise für GPT-3.5 um 25 Prozent und die ohnehin schon günstigen Embeddings werden noch einmal um 75 Prozent günstiger.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!