Inhalt
summary Zusammenfassung

Google Research hat ein neues Verfahren namens Cappy entwickelt, um die Leistung und Effizienz von Large Language Models (LLMs) zu verbessern. Der leichtgewichtige, vortrainierte Scorer mit nur 360 Millionen Parametern ermöglicht die Anpassung von LLMs an spezifische Aufgaben ohne Feintuning.

Cappy ist eine Art Bewertungssystem, das mit vergleichsweise geringem Rechenaufwand die Qualität der von LLMs generierten Antworten bewertet und so deren Leistung steigern kann, wie die Google-Ingenieure Yun Zhu und Lijuan Liu in einem Blogbeitrag erläutern.

Das neue Verfahren ermöglicht es, LLMs an spezifische Aufgaben anzupassen, ohne dass eine Feinabstimmung der Modellparameter erforderlich ist. Das spart laut Google Speicher- und Rechenkapazität.

Cappy arbeitet als eine Art Schiedsrichter: Es bewertet, wie gut die Antworten eines LLMs zu einer bestimmten Fragestellung passen. Dazu vergibt Cappy Werte zwischen 0 und 1. Je höher der Wert, desto besser die Antwort.

Anzeige
Anzeige

Stellt ein Nutzer etwa die Frage "Welche Auswirkungen hatte die Industrielle Revolution auf die Gesellschaft?" und das LLM generiert verschiedene Ausgaben, so kann Cappy die Antwort, die die wichtigsten Aspekte wie Urbanisierung, Entstehung der Arbeiterklasse und soziale Umwälzungen abdeckt, besonders hervorheben und an den Nutzer ausgeben.

Weniger relevante Antworten mit niedriger Punktzahl werden ausgeblendet. Auf diese Weise stellt Cappy sicher, dass das LLM möglichst genaue, relevante und qualitativ hochwertige Antworten liefert.

Bild: Zhu & Liu, Google Research

Cappy arbeitet entweder eigenständig in Klassifikationsaufgaben oder als Hilfskomponente in Multi-Task LLMs, um deren Leistung zu steigern.

Schlanker "Scorer" optimiert LLM-Leistung

Um diese Bewertungen vornehmen zu können, wird Cappy zunächst mit einer großen Anzahl von Frage-Antwort-Paaren trainiert. Dabei lernt das System, gute von schlechten Antworten zu unterscheiden. Als Grundlage für diesen Lernprozess dient das bestehende Sprachmodell RoBERTa.

Cappy arbeitet auch mit LLMs, die nur über Schnittstellen angesprochen werden können. Im Gegensatz zu In-Context-Learning-Ansätzen, bei denen die Informationen direkt im Prompt bereitgestellt werden, ist Cappy nicht durch die Eingabelänge beschränkt und kann beliebig viele Trainingsbeispiele einbeziehen.

Empfehlung

In Tests hat Cappy laut Google gezeigt, dass es die Leistung von Multi-Task LLMs verbessern kann. Bei elf Klassifikationsaufgaben aus PromptSource übertraf Cappy Metas Modelle OPT-175B und OPT-IML-30B und erreichte die Genauigkeit der besten existierenden Multi-Task LLMs (T0-11B und OPT-IML-175B).

Bild: Bild: Zhu & Liu, Google Research

Bei 45 komplexen Generierungsaufgaben aus der BIG Benchmark, die als Herausforderung für viele LLMs gelten, konnte Cappy die Leistung der FLAN-T5 Modelle deutlich verbessern. Die Kombination aus Cappy und FLAN-T5 lieferte durchweg bessere Ergebnisse als das Standardverfahren, bei dem das Sprachmodell seine Antworten selbst bewertet.

Bild: Zhu & Liu, Google Research

Die Google-Forscher sehen in Cappy einen vielversprechenden Ansatz, um die Leistungsfähigkeit und Effizienz von KI-Sprachmodellen zu verbessern. Das Verfahren könnte es ermöglichen, LLMs schneller und mit weniger Aufwand für spezifische Anwendungen zu optimieren.

Dadurch könnten KI-Systeme in Zukunft flexibler und breiter einsetzbar werden, ohne dass extrem rechenintensive Neukonfigurationen der Modelle erforderlich sind. Langfristig könnte Cappy so den Weg für eine neue Generation von KI-Anwendungen ebnen, die effizienter, flexibler und leistungsfähiger sind als bisherige Systeme.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google Research hat Cappy entwickelt, ein leichtgewichtiges Bewertungssystem mit 360 Millionen Parametern, das die Leistung von Large Language Models (LLMs) verbessern soll, ohne dass eine Feinabstimmung der Modellparameter erforderlich ist.
  • Cappy bewertet die Qualität der von LLMs generierten Antworten auf einer Skala von 0 bis 1 und hebt die relevantesten Antworten hervor. Es lernt durch Training mit Frage-Antwort-Paaren, gute von schlechten Antworten zu unterscheiden.
  • In Tests konnte Cappy die Leistung von Multi-Task LLMs verbessern und übertraf bei Klassifikationsaufgaben sogar einige der besten existierenden Modelle. Die Google-Forscher sehen in Cappy einen vielversprechenden Ansatz, um KI-Sprachmodelle effizienter und flexibler zu machen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!