Inhalt
summary Zusammenfassung

Mehr Rechenleistung für Open-Source-Modelle kommt bald aus der Google Cloud. Damit erweitert Hugging Face seine Anbindung an leistungsstarke Infrastrukturen und Google bekommt bei Open-Source-KI einen Fuß in die Tür.

Google hat eine Partnerschaft mit dem KI-Startup Hugging Face bekannt gegeben, um den Fortschritt von Open-Source-KI zu fördern. Software von Hugging-Face-Nutzer:innen könne demnach auf der Google Cloud gehostet werden. Davon soll die Open-Source-Community langfristig profitieren.

"Wir werden mit Google in den Bereichen Open Science, Open Source, Cloud und Hardware zusammenarbeiten, um Unternehmen die Möglichkeit zu geben, ihre eigene KI mit den neuesten offenen Modellen von Hugging Face und den neuesten Cloud- und Hardware-Funktionen von Google Cloud zu entwickeln", heißt es im offiziellen Blogbeitrag.

Schon jetzt seien Hunderttausende Hugging-Face-Nutzer:innen auf Servern der Google Cloud aktiv. Die Partnerschaft soll es erleichtern, neue Modelle innerhalb der Google Kubernetes Engine und Vertex AI zu trainieren und zu hosten. Die Ergebnisse der Kooperation sollen im Laufe des Jahres umgesetzt werden.

Anzeige
Anzeige

Diese Zusammenarbeit ist für Google besonders bedeutend, da sie ein stärkeres Engagement im Open-Source-KI-Sektor signalisiert. Bisher setzte der Tech-Konzern sowohl bei seinen eigenen Projekten als auch bei seiner Investition in Anthropic ausschließlich auf proprietäre Modelle.

Vergangenes Jahr äußerte ein Google-Ingenieur Bedenken, dass das Unternehmen hinter Open-Source-Entwicklern in KI-Fortschritten zurückbleiben könnte. Das war zwar nur die Meinung eines Einzelnen, doch sie fand Gehör.

Erweiterung von Googles Open-Source-Horizonts

Hugging Face, ein 2016 in New York gegründetes Unternehmen, hat sich als Eckpfeiler in der Open-Source-KI-Community etabliert und bietet eine wichtige Plattform für Entwickler:innen, um KI-Modelle gemeinsam zu nutzen und weiterzuentwickeln.

Das KI-Start-up hat über Google hinaus Beziehungen zu mehreren wichtigen Akteuren in der Technologiebranche aufgebaut, um seine Infrastruktur und Dienstleistungen zu erweitern und zu verbessern.

Unter anderem nutzt Hugging Face Amazon-Server mit dem proprietären KI-Chip "Trainium" für die Weiterentwicklung seines Open-Source-Sprachmodells Bloom. Eine Partnerschaft mit Nvidia ermöglicht es Hugging Face-Nutzer:innen, Nvidias DGX Cloud KI-Infrastruktur für das Training oder die Feinabstimmung von KI-Modellen einzusetzen.

Empfehlung

Diese Allianzen sind entscheidend für die Skalierung und Verbreitung von Open-Source-Alternativen zu proprietären KI-Modellen. So ist Hugging Faces HuggingChat als Open-Source-Gegenstück zu OpenAIs ChatGPT konzipiert, kommt aber bisher nicht ansatzweise an dessen Erfolg heran. Auch Abwandlungen von Metas LLaMa-Sprachmodellen finden auf Hugging Face ein Zuhause.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Hugging Face hat eine Zusammenarbeit mit Google angekündigt, um Open-Source-Software auf Google Cloud zu hosten.
  • Ziel ist es, Entwickler:innen bessere Werkzeuge für KI-Innovationen an die Hand zu geben und Modelle leichter zu trainieren und anderen zur Verfügung zu stellen.
  • Diese Partnerschaft könnte bedeuten, dass Google auch bei Open Source ein Wörtchen mitreden will. Bisher setzte der Technologiekonzern sowohl bei seinen eigenen Projekten als auch bei seiner Investition in Anthropic ausschließlich auf proprietäre Modelle.
Jonathan ist Technikjournalist und beschäftigt sich stark mit Consumer Electronics. Er erklärt seinen Mitmenschen, wie KI bereits heute nutzbar ist und wie sie im Alltag unterstützen kann.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!