Nel corso degli ultimi mesi, colossi tecnologici come Microsoft, Google, OpenAI e NVIDIA hanno conquistato i titoli dei giornali per i loro progetti che riguardano l’Intelligenza Artificiale generativa. A questa lista, a quanto pare, ora va aggiunta anche Amazon.
Secondo CNBC, infatti, Amazon Web Services è a lavoro su due chip (denominati Inferentia e Trainium) che dovrebbero essere capaci di competere con i Grace Hopper di NVIDIA, già adottati per l’addestramento di modelli linguistici su vasta scala.
D’altro canto, per AWS i chip personalizzati non sono una novità. Circa 10 anni fa, infatti i chip Nitro sono stati creati e installati sui server dell’azienda stessa.
Inferentia e Trainium: i due nuovi chip con IA generativa integrata “made in Amazon”
Secondo quanto rivelato finora, negli uffici di Austin, Amazon sta lavorando con grande attenzione a Trainium e Inferentia, al fine di creare l’ambiente ideale ai suoi clienti per addestrare i loro LLM di IA generativa sui server AWS.
A tal proposito, Mai-Lan Tomsen Bukovec, VP of technology di AWS ha dichiarato “È una questione di velocità. La rapidità con cui queste aziende possono muoversi per sviluppare queste applicazioni di IA generativa è determinata partendo prima dai dati che hanno in AWS e poi utilizzando gli strumenti di calcolo e apprendimento automatico che forniamo“.
Nonostante le prospettive per il futuro, va tenuto conto che attualmente in questo preciso contesto Amazon sta adottando alcuni chip NVIDIA. I server AWS in questione sono infatti alimentati da Questi server sono alimentati da GPU NVIDIA H100 Tensor Core.
Amazon ha dichiarato alla CNBC che “oltre 100.000” dei suoi clienti AWS lavorano nell’emergente settore dell’apprendimento automatico. Sebbene questa cifra rappresenti solo una minuscola parte dell’utenza, nel futuro questo numero è probabilmente destinato a crescere in modo esponenziale nei prossimi mesi e anni.