Inhalt
summary Zusammenfassung

Meta Platforms will nach Angaben eines Mitarbeiters am 23. Juli die größte Version seines Open-Source-Sprachmodells Llama 3 veröffentlichen.

Anzeige

Das Modell mit 405 Milliarden Parametern soll multimodal sein und sowohl Bilder als auch Text verarbeiten können, berichtet "The Information". Das Modell sollte also aus der Kombination Bild und Text neue Bilder erzeugen können.

Zwischenzeitlich gab es Gerüchte, dass Meta die Gewichte des 400-Milliarden-Modells nicht zur Verfügung stellen würde. Der KI-Leaker Jimmy Apples berichtet auf X von angeblichen Einwänden des Facebook-Mitbegründers Dustin Moskovitz gegenüber Mark Zuckerberg. Meta habe sich jedoch trotz dieser Einwände entschieden, das Modell einschließlich der Gewichte als Open Source zu veröffentlichen.

Gegen die Veröffentlichung der Gewichte sprechen finanzielle Gründe, das Modelltraining kostet viel Geld, und Sicherheitsgründe. Mit Gewichten ist das Open-Source-Modell für mehr Menschen direkt leichter einsetzbar, was aus Sicherheitsperspektive kritisiert werden kann.

Anzeige
Anzeige

Gewichte in KI-Modellen sind Schlüsselparameter für die Optimierung von Vorhersagen. Ihre Veröffentlichung in Open-Source-Modellen ermöglicht Reproduzierbarkeit und erleichtert die praktische Anwendung, Transparenz und Vergleichbarkeit.

Wenn Entwickler ein vortrainiertes Modell ohne Gewichte herunterladen, erhalten sie nur die Architektur des Modells, also sozusagen die "leere Hülle". Diese Architektur definiert die Struktur des neuronalen Netzes - wie viele Schichten es hat, wie diese verbunden sind usw.

Ohne die trainierten Gewichte, die während des Lernprozesses optimiert wurden, kann dieses Modell noch keine sinnvollen Vorhersagen treffen oder Aufgaben lösen. Ein Trainingsprozess kann je nach Modellgröße und Datenmenge sehr zeit- und ressourcenintensiv sein.

Der Zugang zu den trainierten Gewichten spart also erheblich Zeit und Rechenressourcen und ermöglicht es auch Entwicklern ohne massive Trainingskapazitäten, fortschrittliche KI-Modelle zu nutzen und weiterzuentwickeln. Daher sind die Gewichte so wichtig und begehrt in der KI-Community.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta Platforms plant nach Angaben eines Mitarbeiters, am 23. Juli die größte Version seines Open-Source-Sprachmodells Llama 3 zu veröffentlichen. Das multimodale Modell mit 405 Milliarden Parametern soll sowohl Bilder als auch Text verarbeiten und aus deren Kombination neue Bilder erzeugen können.
  • Trotz Gerüchten über Einwände des Meta-Mitbegründers Dustin Moskovitz gegenüber Mark Zuckerberg hat sich Meta offenbar entschieden, das Modell als Open Source inklusive der trainierten Gewichte zu veröffentlichen.
  • Diese Gewichte sind Schlüsselparameter für die Optimierung von Vorhersagen in KI-Modellen. Ihre Veröffentlichung ermöglicht Reproduzierbarkeit, erleichtert die praktische Anwendung und spart erheblich Zeit und Rechenressourcen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!