Inhalt
summary Zusammenfassung

Nur eine Woche nach der Veröffentlichung von Meta Llama 3 für Entwickler zeigt sich die KI-Community begeistert. Die Modelle wurden mehr als 1,2 Millionen Mal heruntergeladen und die Entwickler teilen Hunderte von abgeleiteten Modellen.

Meta scheint mit dem Start von Llama 3 sehr zufrieden zu sein: Seit der Veröffentlichung vor einer Woche wurden die Modelle laut Meta mehr als 1,2 Millionen Mal heruntergeladen und mehr als 600 Modellvarianten auf Hugging Face geteilt.

Das Llama 3 GitHub Repository hat bereits über 17.000 Sterne. Llama 3 70B Instruct belegt im LMSYS Chatbot Arena Leaderboard zusammen mit einem anderen Modell den ersten Platz bei den englischsprachigen Bewertungen und den sechsten Platz insgesamt. Damit ist es das am höchsten bewertete offen verfügbare Modell, knapp hinter geschlossenen, proprietären Modellen.

Die Reaktion der Community ist enorm: Entwickler haben bereits das Kontextfenster von Llama 3 verdoppelt, arbeiten an der Quantisierung, der Webnavigation, der Nutzung von Werkzeugen, der Feinabstimmung mit niedriger Genauigkeit und der lokalen Nutzung. Eine Gruppe hat jedoch auch gezeigt, dass Llama 3 ein Sicherheitsproblem hat.

Anzeige
Anzeige

Prof. Dr. med. Llama 3

Partner aus den Bereichen Chips, Hardware und Cloud-Computing haben damit begonnen, Llama 3 für ihre Anwendungen zu adaptieren.

An der Yale School of Medicine arbeiteten Teams zusammen mit der EPFL School of Computer and Communication Sciences innerhalb von 24 Stunden nach der Veröffentlichung an der Feinabstimmung von Meta Llama 3 und stellten Llama-3[8B]-MeditronV1.0 vor - das erste feinabgestimmte Llama-3 8B-Modell für die Medizin. Dieses neue Modell übertrifft bei Standardtests wie MedQA und MedMCQA alle verfügbaren State-of-the-Art-Modelle in seiner Parameterklasse.

Llama-3[8B]-MeditronV1.0 Benchmark Resultate. | Bild: Meta
Meta betont, dass dies erst der Anfang für Llama 3 sei. In den kommenden Monaten will das Unternehmen Modelle mit neuen Fähigkeiten veröffentlichen, darunter Multimodalität, die Möglichkeit, in mehreren Sprachen zu kommunizieren, ein längeres Kontextfenster und verbesserte Gesamtfähigkeiten. Ein 400-Milliarden-GPT-4-Opus-Konkurrent ist noch im Training.

Mit dem Erfolg von Llama 3 kommt Meta-CEO Mark Zuckerberg seinem Ziel näher, das eigene KI-Modell zum Standard für KI-Anwendungen zu machen und damit mittel- bis langfristig auch finanziell zu profitieren, etwa durch geringere Entwicklungs- und Innovationskosten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta hat vor einer Woche die Llama-3-Modelle für Entwickler veröffentlicht, die seitdem mehr als 1,2 Millionen Mal heruntergeladen wurden. Die Community teilt Hunderte von abgeleiteten Modellen auf Plattformen wie Hugging Face.
  • Das Llama-3-70B-Instruct-Modell belegt den ersten Platz in der englischsprachigen Rangliste der LMSYS Chatbot Arena und ist das am besten bewertete frei verfügbare Modell. Die Entwickler arbeiten bereits an Erweiterungen wie der Verdoppelung des Kontextfensters, der Quantisierung und der Feinabstimmung für spezielle Anwendungsbereiche.
  • Meta plant, in den kommenden Monaten weitere Llama-3-Modelle mit neuen Fähigkeiten wie Multimodalität, mehrsprachiger Kommunikation und einem größeren Kontextfenster zu veröffentlichen. Ziel ist es, das eigene KI-Modell zum Standard für KI-Anwendungen zu machen und damit langfristig finanziell zu profitieren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!