Inhalt
summary Zusammenfassung

Die Datenanalyseplattform Supersimple konnte GPT-4 bereits fine-tunen. Trotz deutlicher Verbesserungen ist der Test jedoch eher ernüchternd.

Die Firma Supersimple, eine Datenanalyseplattform, mit der Benutzer komplexe Ad-hoc-Abfragen in natürlicher Sprache durchführen können, hat vor einigen Wochen einen frühen Zugang zur GPT-4 Finetuning API von OpenAI erhalten.

Supersimple verwendet große Sprachmodelle wie GPT-3.5 und GPT-4, um Benutzeranfragen in natürlicher Sprache zu beantworten. Die LLMs werden mit einem proprietären Datensatz angereichert, der mehrere zehn Millionen Token mit Beispielen für Frage-Antwort-Kombinationen enthält. Die Modelle GPT-3.5 und GPT-4 wurden für jeweils drei Epochen verfeinert.

Die LLMs geben ihre eigene domänenspezifische Sprache (DSL) aus, die dann in JSON und Datenbankabfragen kompiliert wird. Im Gegensatz zu Text-to-SQL ist die Ausgabe eine erklärbare No-Code-Exploration, die direkt mit der Datenplattform interagiert und leicht editierbar ist.

Anzeige
Anzeige

Video: Supersimple

Die komplexe Ausgabe wird in einzelne Blöcke zerlegt, die logische Schritte im Denkprozess darstellen. Die Komplexität der Erstellung korrekter SQL-Abfragen wird auf die Plattform verlagert. Bei der Generierung der Ausgabe berücksichtigen die Modelle auch bestehende Dashboards und benutzerdefinierte Konzepte.

GPT-4 Feintuning skaliert weniger als bei GPT-3.5

Ein Vergleich verschiedener OpenAI-basierter Modelle zeigt, dass ein fein abgestimmtes GPT-4 zwar die Leistung von GPT-3.5 um 56 Prozent übertrifft. Der Leistungssprung war jedoch geringer als beim Wechsel von GPT-3 zu GPT-3.5. Dennoch übertrifft das fein abgestimmte GPT-4 das herkömmliche GPT-4 und GPT-3.5 deutlich.

Bild: Supersimple

In einem internen Benchmark-Test mit 100 verschiedenen Fragen zeigte das verbesserte GPT-4 trotz Leistungsverbesserungen laut Supersimple weiterhin Schwächen bei breiten und offenen Fragen, wenn diese mit einer einzigen Antwort gelöst werden sollten.

Bild: Supersimple

"Besorgniserregend ist der Trend, dass die Vorteile der Feinabstimmung abnehmen. Während das Feintuning von Davinci eine deutliche Verbesserung gegenüber dem Basismodell darstellt, bietet das Feintuning von GPT-3.5 weniger Vorteile und der Fortschritt durch das Feintuning von GPT-4 ist noch geringer", schreibt die Firma.

Empfehlung

Die Hauptprobleme des feinabgestimmten GPT-4 sind laut Supersimple die deutlich höhere Latenz, die sechsmal höher ist als bei GPT-3.5, und die Kosten, die 15-mal höher für Inferenz und 11-mal höher für Training sind als bei GPT-3.5.

Bild: Supersimple

Um diese Einschränkungen zu umgehen, verlässt sich Supersimple im Produktivbetrieb selten auf einen einzigen Modellaufruf. Stattdessen wird eine Mischung aus verschiedenen spezialisierten Modellen, Prompts und Heuristiken verwendet, um sowohl die Genauigkeit als auch die Antwortzeit zu verbessern.

Auch aufgrund der hohen Latenz verwendet Supersimple GPT-4 nur für eine bestimmte Untermenge von Fragen und für einige der kritischsten Denkschritte. Für den Rest werden andere Modelle wie GPT-3.5 verwendet.

Für viele reale Anwendungen, die nicht-triviale Fähigkeiten des logischen Denkens erfordern, sei ein einziges Modell mit einer einzigen Antwort nicht ausreichend. Darüber hinaus sei es wichtig, dass eine KI ihr Ergebnis dem Benutzer genau erklärt.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Supersimple, eine Datenanalyseplattform, die komplexe Abfragen in natürlicher Sprache ermöglicht, hat GPT-4 und GPT-3.5 von OpenAI feinabgestimmt. Die Modelle erzeugen eine domänenspezifische Sprache, die in JSON und Datenbankabfragen übersetzt wird.
  • In internen Benchmarks zeigte das feinabgestimmte GPT-4 eine Leistungsverbesserung von 56 Prozent gegenüber GPT-3.5, allerdings war der Leistungssprung geringer als beim Wechsel von GPT-3 zu GPT-3.5. Zudem zeigte GPT-4 weiterhin Schwächen bei breiten und offenen Fragen.
  • Die Hauptprobleme des verfeinerten GPT-4 sind die deutlich höhere Latenz (6x höher als bei GPT-3.5) und die Kosten (15x höher für Inferenz und 11x höher für Training als bei GPT-3.5). Supersimple verwendet daher eine Mischung aus verschiedenen spezialisierten Modellen, Prompts und Heuristiken, um Genauigkeit und Antwortzeit zu verbessern.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!