Inhalt
summary Zusammenfassung

Nach Alpaca kommt jetzt Vicuna, ein Open-Source-Chatbot der laut Entwickler:innen noch näher an ChatGPTs Leistung kommt.

Anzeige

Vicuna folgt der "Alpaca-Formel" und verwendet ChatGPT-Outputs, um ein Meta-Sprachmodell der LLaMA-Familie zu finetunen. Das Team hinter Vicuna besteht aus Forscher:innen der UC Berkeley, CMU, Stanford und der UC San Diego.

Während Alpaca und andere davon inspirierte Modelle auf der 7 Milliarden Parameter Version von LLaMA basieren, verwendet das Team hinter Vicuna die größere 13 Milliarden Parameter Variante.

Für das Finetuning nutzt das Team 70.000 Unterhaltungen, die von Nutzer:innen auf der Plattform ShareGPT mit OpenAIs ChatGPT geteilt wurden.

Anzeige
Anzeige

Vicuna-Training kostete die Hälfte von Alpaca

Die Kosten für Vicuna lagen bei rund 300 US-Dollar - und kosteten damit trotz fast doppelter Größe nur die Hälfte von Alpaca. Der Grund: Die ShareGPT-Daten sind frei verfügbar, während Alpaca über die OpenAI-API eigene Daten generiert. Für Vicuna fallen daher nur Trainingskosten an. Wie das Stanford-Modell ist auch Vicuna ausschließlich für nicht-kommerzielle Zwecke freigegeben.

Bei Tests mit Benchmark-Fragen zeigt Vicuna nach dem Finetuning mit ShareGPT-Daten deutlich detailliertere und besser strukturierte Antworten als Alpaca. Sie lägen auf einem mit ChatGPT vergleichbaren Niveau, schreibt das Team.

Um die Leistung ihres Chatbots besser einschätzen zu können, setzt das Team auf GPT-4. Das neueste Modell von OpenAI sei in der Lage, konsistente Rankings und detaillierte Einschätzungen beim Vergleich verschiedener Chatbots zu liefern.

GPT-4 vergleicht die Ausgaben verschiedener Chatbots. Die Methode sei jedoch noch "nicht-wissenschaftlich" und weitere Untersuchungen nötig, so das Team. | Bild: LmSys

Das Team lässt GPT-4 daher gegen eine 13-Milliarden-Parameter-Version von Alpaca, Metas ursprünglichem LLaMA-Modell, Googles Bard und ChatGPT antreten. GPT-4 sieht ChatGPT an der Spitze, Vicuna und Bard fast gleichauf, Alpaca und LLaMA weit abgeschlagen. Der GPT-4-Benchmark sei jedoch "nicht-wissenschaftlich" und weitere Evaluierungen seien notwendig, so das Team.

Vicuna-Modell ist für nicht-kommerzielle Zwecke verfügbar

Vicuna hat bekannte Probleme wie Schwächen im logischen Schlussfolgern und in der Mathematik und produziert Halluzinationen. Für die veröffentlichte Demo setzt das Team außerdem auf die Moderations-API von OpenAI, um unangemessene Ausgaben herauszufiltern. "Dennoch glauben wir, dass Vicuna als offener Ausgangspunkt für zukünftige Forschung dienen kann, um diese Einschränkungen zu überwinden."

Empfehlung

Mit der ersten Version hat das Team den relevanten Code, beispielsweise für das Training, freigegeben. Inzwischen hat es auch die Gewichtungen des Vicuna-13B-Modells veröffentlicht, die allerdings ein vorhandenes LLaMA-13B-Modell voraussetzen.

Wer Vicuna ausprobieren möchte, kann dies über diese Demo tun.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher:innen veröffentlichten Vicuna, ein Open-Source-Sprachmodell, dass mit ChatGPT-Daten trainiert wurde.
  • Vicuna basiert auf einer 13 Milliarden Parameter großen Variante von Metas LLaMA-Modell und erreiche ChatGPT-ähnliche Ergebnisse, so das Team.
  • Die Entwicklung kostete nur 300 US-Dollar und in einer experimentellen Bewertung durch GPT-4, schneidet Vicuna auf Bard-Niveau ab und kommt ChatGPT nahe.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!