Forschende der UC Berkeley und von Microsoft Research haben Gorilla entwickelt, ein großes Sprachmodell, das sich durch die Generierung präziser API-Aufrufe auszeichnet. Dieses LLaMA-basierte Modell übertrifft andere moderne Sprachmodelle wie GPT-4, indem es das Problem der Halluzinationen entschärft und sich an Dokumentenänderungen zur Testzeit anpasst. Gorilla wurde mit umfangreichen Datensätzen von Torch Hub, TensorFlow Hub und Hugging Face trainiert.
Anzeige
Der Code, das Modell, die Daten und die Demo von Gorilla sind jetzt auf GitHub verfügbar, und es ist geplant, weitere Bereiche wie Kubernetes, GCP, AWS und OpenAPI hinzuzufügen.
Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!