Anzeige
Skip to content

Hugging Face erhält Google Cloud-Unterstützung für leistungsstarke KI-Modelle

Image description
Hugging Face

Mehr Rechenleistung für Open-Source-Modelle kommt bald aus der Google Cloud. Damit erweitert Hugging Face seine Anbindung an leistungsstarke Infrastrukturen und Google bekommt bei Open-Source-KI einen Fuß in die Tür.

Google hat eine Partnerschaft mit dem KI-Startup Hugging Face bekannt gegeben, um den Fortschritt von Open-Source-KI zu fördern. Software von Hugging-Face-Nutzer:innen könne demnach auf der Google Cloud gehostet werden. Davon soll die Open-Source-Community langfristig profitieren.

"Wir werden mit Google in den Bereichen Open Science, Open Source, Cloud und Hardware zusammenarbeiten, um Unternehmen die Möglichkeit zu geben, ihre eigene KI mit den neuesten offenen Modellen von Hugging Face und den neuesten Cloud- und Hardware-Funktionen von Google Cloud zu entwickeln", heißt es im offiziellen Blogbeitrag.

Schon jetzt seien Hunderttausende Hugging-Face-Nutzer:innen auf Servern der Google Cloud aktiv. Die Partnerschaft soll es erleichtern, neue Modelle innerhalb der Google Kubernetes Engine und Vertex AI zu trainieren und zu hosten. Die Ergebnisse der Kooperation sollen im Laufe des Jahres umgesetzt werden.

Anzeige
DEC_D_Incontent-1

Diese Zusammenarbeit ist für Google besonders bedeutend, da sie ein stärkeres Engagement im Open-Source-KI-Sektor signalisiert. Bisher setzte der Tech-Konzern sowohl bei seinen eigenen Projekten als auch bei seiner Investition in Anthropic ausschließlich auf proprietäre Modelle.

Vergangenes Jahr äußerte ein Google-Ingenieur Bedenken, dass das Unternehmen hinter Open-Source-Entwicklern in KI-Fortschritten zurückbleiben könnte. Das war zwar nur die Meinung eines Einzelnen, doch sie fand Gehör.

Erweiterung von Googles Open-Source-Horizonts

Hugging Face, ein 2016 in New York gegründetes Unternehmen, hat sich als Eckpfeiler in der Open-Source-KI-Community etabliert und bietet eine wichtige Plattform für Entwickler:innen, um KI-Modelle gemeinsam zu nutzen und weiterzuentwickeln.

Das KI-Start-up hat über Google hinaus Beziehungen zu mehreren wichtigen Akteuren in der Technologiebranche aufgebaut, um seine Infrastruktur und Dienstleistungen zu erweitern und zu verbessern.

Anzeige
DEC_D_Incontent-2

Unter anderem nutzt Hugging Face Amazon-Server mit dem proprietären KI-Chip "Trainium" für die Weiterentwicklung seines Open-Source-Sprachmodells Bloom. Eine Partnerschaft mit Nvidia ermöglicht es Hugging Face-Nutzer:innen, Nvidias DGX Cloud KI-Infrastruktur für das Training oder die Feinabstimmung von KI-Modellen einzusetzen.

Diese Allianzen sind entscheidend für die Skalierung und Verbreitung von Open-Source-Alternativen zu proprietären KI-Modellen. So ist Hugging Faces HuggingChat als Open-Source-Gegenstück zu OpenAIs ChatGPT konzipiert, kommt aber bisher nicht ansatzweise an dessen Erfolg heran. Auch Abwandlungen von Metas LLaMa-Sprachmodellen finden auf Hugging Face ein Zuhause.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar“‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

KI-News ohne Hype
Von Menschen kuratiert.

  • Mehr als 20 Prozent Launch-Rabatt.
  • Lesen ohne Ablenkung – keine Google-Werbebanner.
  • Zugang zum Kommentarsystem und Austausch mit der Community.
  • Wöchentlicher KI-Newsletter.
  • 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
  • Bis zu 25 % Rabatt auf KI Pro Online-Events.
  • Zugang zum kompletten Archiv der letzten zehn Jahre.
  • Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.
The Decoder abonnieren