Nell’ambito del suo “AI PC Acceleration Program“, annunciato a ottobre 2023, Intel ha svelato il lancio di due nuove iniziative: si tratta del “Programma per sviluppatori AI PC” e il “Programma per fornitori hardware indipendenti“, al fine di sostenere gli sviluppatori nella creazione di software per AI PC.
Microsoft definisce un AI PC come una macchina dotata di CPU, GPU e NPU (Neural Processing Unit), con la possibilità di utilizzare l’assistente Copilot AI, ed equipaggiata con un “tasto Copilot” per accedere rapidamente alle funzionalità di intelligenza artificiale.
Intel ha adottato la stessa definizione spiegando che le iniziative appena promosse rappresentano una pietra miliare importante verso l’obiettivo di immettere sul mercato oltre 100 milioni di AI PC basati sulle tecnologie Intel, per ottimizzare e massimizzare gli sforzi entro il 2025.
AI PC Intel: presentati i programmi per sviluppatori e fornitori hardware indipendenti
Attualmente l’azienda di Santa Clara sta supportando oltre 100 programmi di terze parti sui suoi AI PC e prevede di poter offrire più di 300 applicazioni accelerate e ottimizzate entro la fine del 2024.
Intel mette a disposizione dei programmatori l’accesso a strumenti e flussi di lavoro, framework di distribuzione AI e kit di sviluppo.
La documentazione è studiata per aiutare gli sviluppatori a sfruttare appieno la tecnologia dei processori Core Ultra al fine di massimizzare le prestazioni per le applicazioni di AI e machine learning, aprendo allo stesso tempo le porte a nuovi casi d’uso.
Anche i fornitori hardware indipendenti possono aderire all’AI PC Acceleration Program per preparare, ottimizzare e abilitare il loro hardware così da proporre agli utenti finali sistemi progettati per svolgere elaborazioni di intelligenza artificiale in locale. I partner certificati hanno accesso ai “laboratori aperti” di Intel, potendo ottenere supporto tecnico e co-ingegneria durante la fase di sviluppo iniziale di soluzioni hardware e piattaforme.
Intel fornisce hardware di base come attività parte integrante del programma, consentendo ai partner certificati di testare e ottimizzare la propria tecnologia per funzionare il più efficientemente possibile al momento del rilascio.
“Intel conta già su 150 fornitori hardware in tutto il mondo che già partecipano all’AI PC Acceleration Program“, ha dichiarato Matt King, senior director of client hardware ecosystem Intel. “Siamo entusiasti di espandere le nostre soluzioni software e portare questo slancio al nostro ampio e aperto ecosistema di sviluppatori“.
Le tecnologie menzionate da Intel come parte del suo programma AI PC
Tra le tecnologie direttamente supportate da Intel c’è ovviamente la sua OpenVINO (Open Visual Inference & Neural Network Optimization toolkit), una suite di strumenti per l’ottimizzazione e la distribuzione di modelli di intelligenza artificiale sviluppata dalla società di Santa Clara.
OpenVINO permette di accelerare la fase di inferenza dei modelli generativi su hardware Intel. Supporta, a sua volta, diversi framework per il deep learning come TensorFlow, Caffe e ONNX.
ONNX Runtime è un’infrastruttura open source per l’esecuzione di modelli di intelligenza artificiale sviluppata da Microsoft. Supporta modelli in formato ONNX su diverse piattaforme hardware, inclusi i processori Intel. Può essere appunto integrato con OpenVINO per accelerare l’inferenza su hardware Intel.
Il programma Intel abbraccia inoltre DirectML, un’API di accelerazione hardware per la gestione della fase di inferenza con i modelli di deep learning. Permette di eseguire modelli AI in modo efficiente su GPU Windows.
Web NN API è uno standard in fase di sviluppo per l’esecuzione di modelli di intelligenza artificiale direttamente a livello di browser Web. Consente alle applicazioni di accedere all’hardware di accelerazione grafica per l’inferenza di modelli AI, senza dover installare software aggiuntivo.
L’immagine in apertura è tratta da AI PC Development (Intel).