Hugging Face è la nota piattaforma di sviluppo specializzata nell’ambito dell’intelligenza artificiale e del machine learning. Fondata nel 2016, ha guadagnato popolarità per gli strumenti che integra e che mette a disposizione degli sviluppatori interessati a distribuire, condividere e utilizzare modelli di machine learning in modo efficiente.
È un vero e proprio ecosistema aperto che offre una vasta gamma di strumenti e risorse per gli sviluppatori di soluzioni basate sull’intelligenza artificiale. Su Hugging Face si possono facilmente trovare e utilizzare modelli generativi open source pre-addestrati, specializzati in varie aree. Alcuni elaborano testi, altri le immagini, altri contenuti audio, altri ancora sono multimodali.
Gli sviluppatori possono testare e visualizzare il comportamento dei modelli in tempo reale, attraverso l’interfaccia della piattaforma. È inoltre prevista la possibilità di condividere i modelli con la comunità, così da favorire la collaborazione e la nascita di nuovi progetti innovativi.
La collaborazione tra Hugging Face e Google Cloud
Il 25 gennaio 2024, Hugging Face ha annunciato di aver avviato una partnership strategica con Google Cloud, piattaforma di servizi cloud gestita dalla società di Mountain View. Google Cloud, che di recente ha azzerato i costi di uscita, offre una serie di servizi per il cloud computing: calcolo, storage, database, machine learning, intelligenza artificiale, analisi dei dati, reti e molto altro.
Grazie all’intesa appena siglata, gli utenti di Hugging Face hanno accesso alle piattaforme di machine learning di Google Cloud, come Vertex AI, e alla soluzione Google Kubernetes Engine (GKE).
GKE è un servizio di Google Cloud che offre un’implementazione gestita del sistema open source Kubernetes. Consente di orchestrare e gestire facilmente i container, fornendo funzionalità come scalabilità automatica, aggiornamenti automatizzati e monitoraggio in tempo reale. Grazie a GKE è possibile rendere più semplice la distribuzione, gestione e scalabilità delle applicazioni containerizzate.
Hugging Face, dicevamo, ospita numerosi modelli tra cui quelli per la generazione di immagini (Stable Diffusion) e LLM (Large Language Model) Llama 2 di Meta. Il “fidanzamento” con Google Cloud consentirà alle piccole e grandi aziende di fruire, direttamente dall’interfaccia di Hugging Face, delle risorse disponibili sulla piattaforma dell’azienda guidata da Sundar Pichai. È previsto anche l’accesso semplificato alle GPU NVidia H100 e ai chip AI Google (TPU v5e).