Forschende der UC Berkeley und von Microsoft Research haben Gorilla entwickelt, ein großes Sprachmodell, das sich durch die Generierung präziser API-Aufrufe auszeichnet. Dieses LLaMA-basierte Modell übertrifft andere moderne Sprachmodelle wie GPT-4, indem es das Problem der Halluzinationen entschärft und sich an Dokumentenänderungen zur Testzeit anpasst. Gorilla wurde mit umfangreichen Datensätzen von Torch Hub, TensorFlow Hub und Hugging Face trainiert.

Der Code, das Modell, die Daten und die Demo von Gorilla sind jetzt auf GitHub verfügbar, und es ist geplant, weitere Bereiche wie Kubernetes, GCP, AWS und OpenAPI hinzuzufügen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!