Inhalt
summary Zusammenfassung

Forscher von Google Deepmind haben eine neue KI-Architektur namens PEER vorgestellt, die mehr als eine Million kleiner "Experten" nutzt. Dies könnte die Effizienz und Skalierbarkeit von Sprachmodellen erheblich verbessern.

Anzeige

Wissenschaftler von Google Deepmind haben eine neue Methode zur Konstruktion von KI-Modellen entwickelt, die sie "Parameter Efficient Expert Retrieval" (PEER) nennen. Diese Technik verwendet mehr als eine Million winziger "Experten" - kleine neuronale Netze mit nur einem Neuron - anstelle der großen Feedforward-Schichten, die in herkömmlichen Transformer-Modellen verwendet werden.

Die Forscher erklären, dass PEER auf dem Prinzip der "Mixture of Experts" (MoE) basiert. MoE ist eine Technik, bei der ein KI-System aus vielen spezialisierten Teilnetzwerken besteht, die je nach Aufgabe aktiviert werden - und die Architektur, die höchstwahrscheinlich aktuelle große Sprachmodelle wie GPT-4, Gemini oder Claude antreibt. PEER geht jedoch einen Schritt weiter, indem es eine extrem große Anzahl sehr kleiner Experten verwendet.

Um effizient auf diese große Menge von Experten zugreifen zu können, verwendet PEER eine Technik namens "Product Key Memory". Diese ermöglicht es, aus Millionen von Experten schnell die relevantesten auszuwählen, ohne sie alle einzeln überprüfen zu müssen.

Anzeige
Anzeige

In Experimenten zur Sprachmodellierung übertraf PEER sowohl herkömmliche Transformermodelle als auch bisherige MoE-Ansätze in der Effizienz. Bei gleicher Rechenleistung schnitt PEER in verschiedenen Benchmarks besser ab.

PEER zeigt, dass Skalierungsgesetze für Experten gelten

Den Erfolg von PEER erklären die Forscher mit so genannten Skalierungsgesetzen. Diese beschreiben mathematisch, wie die Leistung von KI-Modellen mit ihrer Größe und der Menge der Trainingsdaten zunimmt. Die Wissenschaftler argumentieren, dass eine sehr große Anzahl von kleinen Experten es ermöglicht, die Gesamtkapazität des Modells zu erhöhen, ohne dass der Rechenaufwand stark ansteigt.

Einen weiteren Vorteil von PEER sehen die Forscher in der Möglichkeit des "lebenslangen Lernens". Da neue Experten einfach hinzugefügt werden können, könnte ein PEER-Modell theoretisch ständig neue Informationen aufnehmen, ohne bereits Gelerntes zu vergessen.

Insgesamt sehen die Forscher in PEER einen vielversprechenden Ansatz, um KI-Modelle effizienter und skalierbarer zu machen. Sie weisen jedoch darauf hin, dass weitere Forschung notwendig ist, um das volle Potenzial dieser Technologie auszuschöpfen.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Google Deepmind Forscher haben eine neue KI-Architektur namens PEER entwickelt, die über eine Million kleiner "Experten" nutzt. Diese winzigen neuronalen Netze ersetzen die großen Feedforward-Schichten herkömmlicher Transformer-Modelle.
  • PEER basiert auf dem "Mixture of Experts" (MoE) Prinzip, geht aber einen Schritt weiter, indem es eine extrem große Anzahl sehr kleiner Experten verwendet. Mithilfe der "Product Key Memory" Technik können die relevantesten Experten effizient ausgewählt werden.
  • In Experimenten übertraf PEER sowohl herkömmliche Transformer-Modelle als auch bisherige MoE-Ansätze in der Effizienz. Die Forscher erklären den Erfolg mit Skalierungsgesetzen und sehen in PEER einen vielversprechenden Ansatz für effizientere und skalierbarere KI-Modelle, die durch lebenslanges Lernen ständig neue Informationen aufnehmen könnten.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!