Microsoft ha collaborato in passato con Qualcomm e AMD per la progettazione e la realizzazione di chip personalizzati: ricordiamo il chip SQ1 che venne lanciato nel 2019 per offrire una maggiore efficienza energetica e prestazioni più elevate sui dispositivi Surface basti su Windows on ARM e, ad esempio, il chip personalizzato per la console Xbox Series X presentata nel novembre 2020. Quest’ultimo è basato sull’architettura AMD RDNA 2, combina una CPU AMD Zen 2 con una GPU AMD RDNA 2 per offrire prestazioni di gioco alla massima qualità su risoluzioni fino a 4K.
Secondo quanto riferiscono fonti vicine alla società di Redmond, Microsoft avrebbe un ulteriore asso nella manica che andrà ad aggiungersi al supporto di GPT-4 nel motore di ricerca Bing, nella piattaforma Microsoft 365 e negli altri prodotti.
L’azienda guidata da Satya Nadella avrebbe iniziato a lavorare già nel 2019 su un suo chip per l’intelligenza artificiale dal nome in codice Athena. L’obiettivo è quello di addestrare i modelli generativi usando prodotti propri, riducendo la dipendenza dall’offerta NVidia lato server (di recente abbiamo visto come anche professionisti e utenti privati possano servirsi di schede integrate come NVidia Jetson Orin Nano senza per forza dover appoggiarsi alle risorse a pagamento disponibili sul cloud).
Il chip Athena per l’intelligenza artificiale sarebbe già in corso di utilizzo da parte di dipendenti Microsoft e OpenAI selezionati, con un’implementazione più ampia che potrebbe arrivare il prossimo anno. Non è chiaro, tuttavia, se i chip resteranno solo ad uso interno o verranno messi a disposizione dei clienti Microsoft, anche attraverso la piattaforma Azure.
La mossa di Microsoft è perfettamente in linea con quanto stanno facendo altri player: Google utilizza propri supercomputer AI che montano, nelle versioni più recente ed aggiornate, 4.096 chip TPU v4 (Tensor Processing Unit di quarta generazione) per gestire i più impegnativi modelli generativi. Anche Amazon sfrutta i suoi chip Trainium per le attività di machine learning e la fase di addestramento dei modelli. Meta, invece, utilizza al momento chip Nvidia nei suoi supercomputer e in particolare per il suo Research SuperCluster.
Nvidia rimane per il momento il fornitore di riferimento per i chip destinati alle applicazioni AI lato server: recenti stime suggeriscono che OpenAI avrà bisogno di più di 30.000 GPU NVidia A100 per continuare a fornire il solo ChatGPT. Basti penare che le ultime GPU NVidia H100 vengono vendute a oltre 40.000 euro su eBay. In questo ricco business potrebbe inserirsi anche Microsoft partendo proprio dall’utilizzo dei nuovi chip Athena sulle sue “proprietà”.