CUDA (Compute Unified Device Architecture) è la ben nota piattaforma di elaborazione parallela sviluppata da NVidia. L’idea alla base di CUDA consiste nell’utilizzare la potenza computazionale delle GPU NVidia per scopi di calcolo generico, quindi ben oltre al tradizionale rendering grafico.
Le GPU sono originariamente progettate per gestire le operazioni legate alla grafica: con CUDA, tuttavia, è possibile sfruttare la loro architettura parallelizzata per eseguire calcoli scientifici, simulazioni fisiche, machine learning e altre operazioni che presuppongono attività di elaborazione intensiva.
Poggiando su CUDA, gli sviluppatori possono contare su un ambiente di programmazione che permette di usare diversi linguaggi beneficiando del supporto per le istruzioni specifiche della GPU.
Intel sostiene che CUDA non è la tecnologia leader nel campo dell’intelligenza artificiale
Il CEO di Intel, Pat Gelsinger, nel corso dell’evento di presentazione dei nuovi chip Core Ultra e della quinta generazione delle CPU Xeon, ha affermato senza mezzi termini che il ruolo predominante di NVidia nell’addestramento dei modelli di intelligenza artificiale mediante l’utilizzo della tecnologia CUDA non è destinato a durare.
Il numero uno della società di Santa Clara ha evidenziato che una volta addestrato il modello, non c’è alcuna dipendenza da CUDA. E sostiene che il fossato tracciato da NVidia con CUDA è superficiale e di dimensioni ridotte: il mercato intende allontanarsi da CUDA – e lo sta già facendo -, orientato a introdurre una gamma più ampia di tecnologie aperte e alla porta di tutti.
Come un fiume in piena, Gelsinger ha aggiunto che nel prossimo futuro sarà il tema dell’inferenza a svolgere un ruolo essenziale nel campo delle soluzioni basate sull’intelligenza artificiale. A detta dell’AD, Intel sarà in grado di affrontare brillantemente la sfida e ottenere risultati di primo livello, sia con Xeon che con i PC edge, grazie al processore Gaudi 3.
L’inferenza, lo ricordiamo, è la fase in cui il modello addestrato è utilizzato per fare previsioni sui dati elaborando le informazioni in input. Durante l’inferenza, il modello applica le “conoscenze” acquisite nella fase di addestramento, così da poter produrre un risultato senza ulteriori aggiornamenti dei pesi delle interconnessioni.
Intel sarà sempre più competitiva nel settore dell’intelligenza artificiale
Gelsinger ha ribadito che Intel sarà estremamente competitiva nel settore delle soluzioni di intelligenza artificiale a livello di data center. Innanzi tutto si è concentrato su OpenVINO, acronimo di Open Visual Inference and Neural network Optimization: si tratta di un toolkit di sviluppo software creato da Intel. Permette di ottimizzare l’utilizzo di reti neurali per l’esecuzione su hardware Intel, migliorando le prestazioni e l’efficienza.
OpenVINO supporta diversi modelli, incluse le reti neurali convoluzionali, reti neurali ricorrenti e reti neurali generative, delle quali abbiamo parlato nell’articolo citato in precedenza. La sua flessibilità e le sue prestazioni ottimizzate lo rendono uno strumento molto utile per lo sviluppo di applicazioni di intelligenza artificiale e di visione artificiale.
Grazie a uno strumento come OpenVINO, Gelsinger prevede quella che sarà la tendenza futura: un mondo in cui il calcolo diventa misto e ibrido, con alcune operazioni che avvengono nel cloud e altre nel PC dell’utente.
Inoltre, osserva che l’addestramento dei modelli usati nell’IA è sempre più “pythonizzato” in termini di linguaggio di programmazione di riferimento. Ciò significa che l’approccio si sta facendo sempre più aperto e interoperabile, con i più importanti player che – a suo avviso – mostrano un progressivo distacco da CUDA.