Mehr Rechenleistung für Open-Source-Modelle kommt bald aus der Google Cloud. Damit erweitert Hugging Face seine Anbindung an leistungsstarke Infrastrukturen und Google bekommt bei Open-Source-KI einen Fuß in die Tür.
Google hat eine Partnerschaft mit dem KI-Startup Hugging Face bekannt gegeben, um den Fortschritt von Open-Source-KI zu fördern. Software von Hugging-Face-Nutzer:innen könne demnach auf der Google Cloud gehostet werden. Davon soll die Open-Source-Community langfristig profitieren.
"Wir werden mit Google in den Bereichen Open Science, Open Source, Cloud und Hardware zusammenarbeiten, um Unternehmen die Möglichkeit zu geben, ihre eigene KI mit den neuesten offenen Modellen von Hugging Face und den neuesten Cloud- und Hardware-Funktionen von Google Cloud zu entwickeln", heißt es im offiziellen Blogbeitrag.
Schon jetzt seien Hunderttausende Hugging-Face-Nutzer:innen auf Servern der Google Cloud aktiv. Die Partnerschaft soll es erleichtern, neue Modelle innerhalb der Google Kubernetes Engine und Vertex AI zu trainieren und zu hosten. Die Ergebnisse der Kooperation sollen im Laufe des Jahres umgesetzt werden.
Diese Zusammenarbeit ist für Google besonders bedeutend, da sie ein stärkeres Engagement im Open-Source-KI-Sektor signalisiert. Bisher setzte der Tech-Konzern sowohl bei seinen eigenen Projekten als auch bei seiner Investition in Anthropic ausschließlich auf proprietäre Modelle.
Vergangenes Jahr äußerte ein Google-Ingenieur Bedenken, dass das Unternehmen hinter Open-Source-Entwicklern in KI-Fortschritten zurückbleiben könnte. Das war zwar nur die Meinung eines Einzelnen, doch sie fand Gehör.
Erweiterung von Googles Open-Source-Horizonts
Hugging Face, ein 2016 in New York gegründetes Unternehmen, hat sich als Eckpfeiler in der Open-Source-KI-Community etabliert und bietet eine wichtige Plattform für Entwickler:innen, um KI-Modelle gemeinsam zu nutzen und weiterzuentwickeln.
Das KI-Start-up hat über Google hinaus Beziehungen zu mehreren wichtigen Akteuren in der Technologiebranche aufgebaut, um seine Infrastruktur und Dienstleistungen zu erweitern und zu verbessern.
Unter anderem nutzt Hugging Face Amazon-Server mit dem proprietären KI-Chip "Trainium" für die Weiterentwicklung seines Open-Source-Sprachmodells Bloom. Eine Partnerschaft mit Nvidia ermöglicht es Hugging Face-Nutzer:innen, Nvidias DGX Cloud KI-Infrastruktur für das Training oder die Feinabstimmung von KI-Modellen einzusetzen.
Diese Allianzen sind entscheidend für die Skalierung und Verbreitung von Open-Source-Alternativen zu proprietären KI-Modellen. So ist Hugging Faces HuggingChat als Open-Source-Gegenstück zu OpenAIs ChatGPT konzipiert, kommt aber bisher nicht ansatzweise an dessen Erfolg heran. Auch Abwandlungen von Metas LLaMa-Sprachmodellen finden auf Hugging Face ein Zuhause.