Inhalt
summary Zusammenfassung

Forscher von Google Deepmind zeigen "Mixture-of-Depths", eine Methode, um die Rechenleistung von Transformer-Modellen effizienter zu nutzen.

Traditionelle Transformer-Modelle verwenden für jedes Token in einer Sequenz die gleiche Menge an Rechenleistung. Im Gegensatz dazu erlaubt Google Deepminds "Mixture-of-Depths" (MoD) dem Modell, diese Rechenleistung flexibel und gezielt auf die Token zu verteilen, die sie am meisten benötigen.

Dazu wird eine feste Obergrenze für die Rechenleistung pro Durchlauf festgelegt, z. B. dürfen maximal 50 % der Token die rechenintensiven Berechnungen durchlaufen. In jedem Block gibt es einen "Router", der für jeden Token einen Gewichtungswert berechnet. Token mit hohem Gewicht werden für die Berechnungen ausgewählt, Token mit niedrigem Gewicht werden übersprungen. Während des Trainings wird eine Anzahl Token mit den höchsten Gewichten für die Berechnungen ausgewählt.

Die restlichen Token werden einfach unverändert weitergereicht. Auf diese Weise können rechenintensive Schritte für nicht benötigte Token übersprungen werden. Das Modell lernt selbstständig, welche Token mehr und welche weniger Rechenleistung benötigen.

Anzeige
Anzeige

Mixture-of-Depths erreicht Leistung der Basismodelle

Trotz der signifikanten Reduktion der benötigten FLOPs pro Vorhersage konnten die MoD-Modelle nach dem Training die Leistung von Baseline-Modellen beibehalten oder sogar übertreffen. Letzteres deutet nach Ansicht des Teams darauf hin, dass die traditionelle gleichmäßige Verteilung der Rechenressourcen in Transformer-Modellen nicht immer optimal ist und dass eine gezieltere Verteilung der Berechnungen die Modellleistung steigern kann. Eine Anfrage an das fertig trainierte KI-Modell benötigt nur noch einen Bruchteil der Rechenleistung und kann bis zu 50 Prozent schneller sein.

Die Methode lässt sich zudem mit der inzwischen weit verbreiteten Mixture-of-Experts-Architektur kombinieren. MoD kann als Ergänzung zu MoE betrachtet werden, da beide Ansätze auf die Optimierung verschiedener Dimensionen des Modells abzielen: MoE auf die Breite (Expertenvielfalt) und MoD auf die Tiefe (Verarbeitungstiefe).

Die Möglichkeit, Rechenleistung dynamisch zuzuweisen und damit effizienter zu nutzen, könnte insbesondere in Anwendungsbereichen mit hohen Anforderungen an Rechenzeit und -ressourcen von großem Wert sein - die zusätzlich verfügbaren FLOPs könnten aber auch für das Training größerer Modelle genutzt werden. Für letztere ergeben sich nach Angaben der Forscher auch Speichereinsparungen. Einige MoD-Varianten benötigen weniger Beschleuniger, was darauf hindeutet, dass diese Effizienz bei der Skalierung auf größere Modelle von Bedeutung sein könnte.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google Deepmind stellt "Mixture-of-Depths" (MoD) vor, eine Methode, die Transformer-Modellen ermöglicht, die verfügbare Rechenleistung flexibel und gezielt auf die Token zu verteilen, die sie am meisten benötigen.
  • Ein "Router" in jedem Block berechnet Gewichtungswerte für die Token. Nur Token mit hohen Gewichten durchlaufen rechenintensive Berechnungen, während der Rest unverändert weitergereicht wird. Das Modell lernst selbstständig, welche Token mehr oder weniger Rechenleistung benötigen.
  • MoD-Modelle erreichen trotz reduzierter Rechenleistung die Leistung von Baseline-Modellen oder übertreffen diese sogar. Die Methode lässt sich mit der Mixture-of-Experts-Architektur kombinieren und könnte insbesondere in rechenintensiven Anwendungen oder beim Training größerer Modelle von Bedeutung sein.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!