Il nuovo corso di AMD ha permesso all’azienda di Sunnyvale a tornare a dire la sua, in modo convincente, anche sul mercato server, notoriamente molto remunerativo e fino a ieri rimasto feudo esclusivo di Intel per molti anni.
I sistemi server di nuova generazione non soltanto saranno basati su processori dotati di più core ma disporranno di memoria RAM più veloce, un’interfaccia PCI Express (PCIe) più flessibile, nuovi set di istruzioni per la gestione delle applicazioni di intelligenza artificiale, design modulare e standard più aperti.
Le nuove macchine saranno anche più efficienti, adopereranno standard migliorati per collegare gli acceleratori di calcolo, abbracceranno alcune innovazioni per rafforzare la sicurezza e miglioreranno significativamente il supporto per lo storage.
I più grandi produttori di sistemi server si stanno concentrando soprattutto sullo sviluppo di un’offerta innovativa destinata ai data center, come quelli di più grandi dimensioni (detti hyperscale-datacenter) facenti capo a realtà come Amazon, Google, Facebook, Microsoft, Apple e Alibaba. Secondo Intel, tali clienti acquistano già oggi più della metà di tutti i processori Xeon, che attualmente rappresentano oltre il 90% del mercato.
Gli hyperscaler citati, tuttavia, non sono soltanto clienti: aziende come Google e Microsoft stanno sviluppando acceleratori di calcolo per l’intelligenza artificiale e i propri chip di sicurezza, mentre Amazon e Alibaba stanno lavorando su processori server con core ARM. L’Open Compute Project (OCP) di Facebook definisce standard aperti per i server cloud senza quindi ricorrere a funzioni aggiuntive proprietarie in modo da risparmiare denaro e ridurre i consumi energetici. In questo modo la società di Zuckerberg riesce a far produrre e ad acquistare server OCP non da colossi come HPE e Dell ma da fornitori come Mitac, Quanta, Quanta, Wiwynn/Wistron.
Ecco quindi che gli hyperscaler stanno esercitando una forte pressione su realtà come Intel e AMD perché la tendenza è quella di non dipendere più, in ottica futura, da singole aziende.
Cosa cambierà da oggi al 2022 per i processori Intel e AMD
I processori Intel Xeon hanno finora dominato incontrastati nel mercato dei server. La società di Santa Clara ha però tirato il fiato tanto che l’attuale seconda generazione delle CPU Xeon Scalable Processor (Xeon-SP) “Cascade Lake”, con un massimo di 28 core per socket (se si esclude la versione speciale Xeon Platinum 9200 a 56 core) è ancora poco disponibile.
I processori Cooper Lake a 56 core non sono previsti fino al 2020, utilizzeranno ancora la tecnologia a 14 nm e saranno contraddistinti verosimilmente da un TDP superiore ai 250 W: In arrivo i processori scalabili Xeon di nuova generazione Cooper Lake e Ice Lake.
Nel complesso, i processori di nuova generazione diventano sempre più potenti non soltanto perché ospitano più core ma anche perché ognuno di essi riesce ad eseguire un numero maggiore di istruzioni per ciclo di clock (IPC). AMD, per esempio, è stata in grado di raddoppiare il numero di unità aritmetiche in virgola mobile nello Zen 2 rispetto allo Zen di prima generazione quadruplicando la potenza di calcolo in combinazione con il numero raddoppiato di core.
Intel, d’altra parte, integra due unità AVX 512 nei core degli Xeon più costosi e le migliora di generazione in generazione. La prima generazione di Xeon a 10 nm utilizza una microarchitettura chiamata Sunny Cove che viene descritta come in grado di assicurare circa il 18% di IPC in più rispetto agli attuali core a 14 nm. Le successive microarchitetture Willow Cove (2021) e Golden Cove (2022) aumenteranno ulteriormente i valori di IPC. Intel, inoltre, sta introducendo nei suoi processori il supporto del formato devono aumentare ulteriormente i valori IPC. Intel sta anche introducendo il supporto del formato dati Bfloat16 (brain floating point 16) nei suoi processori per rappresentare un intervallo di valori più ampio rispetto al consolidato formato a virgola mobile FP16. Bfloat16 sarà utilizzato anche nei processori ARM e nelle GPU AMD risultando particolarmente utile per un più efficace addestramento delle intelligenze artificiali.
Si pensi a carichi di lavoro quali la classificazione delle immagini, il riconoscimento delle parole, traduzioni e altri compiti, aveva spiegato di recente Intel.
Intel, comunque, sembra essere un po’ in ritardo anche per quanto riguarda il supporto delle nuove specifiche PCIe: un AMD EPYC 7002 può usare 128 piste PCIe 4.0; uno Xeon-SP, almeno nelle versioni attuali, solo 48 piste PCIe 3.0. Gli Xeon-SP della generazione Ice Lake a 10 nm non dovrebbero utilizzare PCIe 4.0 almeno fino alla metà del 2020.
Rispetto a PCIe 3.0, PCIe 4.0 raddoppia la velocità di trasferimento dati a 16 Gbps (2 GB/s) sul singolo canale quindi una scheda x16 raggiunge un massimo di 32 GB/s invece di 16 GB/s in entrambe le direzioni. Un aspetto tecnico molto più importante per i server che per i PC desktop e i notebook. I singoli nodi che compongono un cluster di server all’interno di un data center sono collegati tramite interconnessioni Infiniband o Ethernet con velocità di trasferimento dati fino a 100 Gbps (12,5 GB/s) e i 200 Gbps sono ormai dietro l’angolo: questo giustifica la rapida maturazione delle specifiche PCIe alla quale stiamo assistendo: PCIe 6.0, le specifiche saranno approvate nel 2021. 16 GB/s per singolo canale.
Le unità SSD per data center e gli acceleratori di calcolo per l’intelligenza artificiale stanno già utilizzando PCIe 4.0 e la stessa interfaccia viene impiegata per la gestione dei sistemi di archiviazione distribuita.
Va detto inoltre che interfacce più veloci spesso funzionano anche in modo più efficiente: basti pensare che con alcuni sistemi di calcolo, l’energia necessaria per trasportare i dati supera già oggi quella richiesta per i calcoli effettivi.
Se oggi AMD ha lanciato la sfida agli Xeon-SP Gen 2 (“Cascade Lake“) di Intel con il suo EPYC 7002, conosciuto anche con il nome in codice “Rome“, la primissima parte del 2020 dovrebbe vedere l’uscita degli Intel Cooper Lake-SP basati, su socket LGA4189, processo costruttivo ancora una volta a 14 nm, 56 core fisici (112 thread), PCIe 3.0, supporto per la memoria RAM DDR4 a 8 canali.
A seguire Intel presenterà gli Ice Lake-SP a 10 nm basati su microarchitettura Sunny Cove, socket LGA4189, PCIe 4.0 e RAM DDR4 a 8 canali.
Successivamente, prima della metà del 2020, AMD dovrebbe rispondere con i suoi processori Milan basati su architettura Zen 3 7nm+, socket invariato rispetto a EPYC 7002 (SP3).
Nel 2021, AMD dovrebbe lanciare i processori Genoa Zen 4 realizzati ricorrendo a un processo litografico a 5 nm, con supporto PCIe 5.0, interconnessione CXL e DDR5.
I Sapphire Rapids di Intel useranno l’architettura Willow Cove, processo costruttivo a 10 nm, nuovo socket e saranno anch’essi compatibili PCIe 5.0, CXL e DDR5.
Il 2022 dovrebbe vedere “la nascita” delle prime CPU AMD Zen 5 con Intel che dovrebbe rispondere con i suoi Granite Rapids realizzati ricorrendo, forse, a un’architettura a 7 nm (Golden Cove).
Supporto per le memorie SDRAM DDR5
Come il suo predecessore, EPYC 7002 ha otto canali per la memoria RAM, di tipo DDR4-3200. Nonostante le prestazioni al top, le specifiche del processore non consentono di utilizzare contemporaneamente, ad esempio, tutte le 128 piste messe a disposizione da PCIe 4.0.
Gli Intel Xeon-SP “Cascade Lake” si fermano al momento a sei canali di memoria DDR4 ma dalla società di Santa Clara si conferma che nel 2020 sarà possibile usare otto canali con le CPU basate su socket LGA4189.
Intel e AMD probabilmente inizieranno a commercializzare i primi processori capaci di supportare memorie DDR5 a partire dal 2021: basti pensare che le RAM DDR5-5200 promettono un trasferimento di dati al secondo superiore del 60% rispetto alle memorie DDR4-3200.
L’avvento delle SDRAM DDR5 crea anche le condizioni per il lancio sul mercato di moduli di memoria più capienti.
Più sicurezza
Le note vulnerabilità Spectre e Meltdown hanno dimostrato che i processori possono essere bersagliato di attacchi mirati per provocare l’esecuzione di codice nocivo e l’accesso ad aree di memoria contenenti informazioni riservate. Intel ha colmato molte lacune nell’attuale generazione di processori Xeon ma non ha ancora risolto il problema di base (si parla di sviluppi futuri che però al momento restano solo sulla carta: Intel SAPM, una memoria per scongiurare attacchi Meltdown e Spectre). Nei futuri processori, la tecnologia Control Flow Enforcement Technology (CET) dovrebbe permettere di ridurre la superficie di attacco.
Per il momento, le Intel Software Guard Extension (SGX), che i programmatori possono utilizzare per configurare enclave sicure, sono rivolte in particolare ai server cloud e aiuteranno a proteggere i dati sensibili all’interno del data center.
La soluzione crittografica di AMD – Secure Encrypted Virtualization (SEV) – protegge i dati anche dai tentativi di violazione posti in essere in ambito locale o dagli attacchi provenienti da macchina virtuale in esecuzione in parallelo.