Mit Giraffe wird ein Vorteil kommerzieller Chatbots Open Source
Giraffe ist ein Open-Source-Sprachmodell mit einem Kontextfenster von 32.000 Token, was es für viele Geschäftsanwendungen nützlich machen könnte.
Große Sprachmodelle wie GPT-4 zeigen beeindruckende Fähigkeiten, haben aber oft ein begrenztes Kontextfenster, was ihren Einsatz bei Aufgaben einschränkt, bei denen sie Dutzende von Seiten verarbeiten müssten. Varianten wie GPT-4-32k oder Anthropic's Claude mit einem Kontextfenster von 100.000 Token bieten einen viel größeren "Speicher" und sind daher in solchen Anwendungsfällen leistungsfähiger.
Nun haben Forschende das Kontextfenster des quelloffenen LLaMA-Modells um das Zehnfache erweitert. Das daraus resultierende Sprachmodell Giraffe liegt in einer Version mit 13 Milliarden Parametern und einem Kontextfenster von 32.000 Token vor, kann so dutzende Seiten Text verarbeiten und verfügt damit über eines der größten Kontextfenster aller Open-Source-Sprachmodelle.
Giraffe bietet Einblick in die Skalierung von Kontextfenstern
Da es sich um eine Open-Source-Version handelt, bietet die Forschung auch einige wichtige Einblicke in das Innenleben von Sprachmodellen und verschiedene Skalierungstechniken zur Vergrößerung des Kontextfensters. Das Abacus.AI-Team fand heraus, dass die lineare Skalierung, bei der der Positionsvektor durch einen Skalierungsfaktor geteilt wird, der die Eingabe innerhalb der Kontextlänge des ursprünglichen Kontextfensters anpasst, am effektivsten ist, um die Kontextlänge von Giraffe zu erhöhen.
Sie stellten auch fest, dass die Genauigkeit bei Aufgaben mit langem Kontext mit zunehmender Länge abnimmt, was die Grenzen der derzeitigen Techniken aufzeige. Zudem sei Perplexität, die üblicherweise zur Messung der Sprachmodell-Leistung verwendet wird, allein nicht ausreichend, um die Leistung bei Aufgaben mit langem Kontext zu messen. Es benötige daher in Zukunft neue Tests für solche Sprachmodelle.
Weitere Informationen und Daten sind auf GitHub verfügbar, das Modell Giraffe-v2-13b-32k wird auf Hugging Face gehostet.
KI-News ohne Hype – von Menschen kuratiert
Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.
Jetzt abonnierenKI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.