Nel mondo della computazione quantistica, uno degli ostacoli principali per raggiungere un’effettiva applicazione su larga scala è la gestione degli errori nei qubit, i “mattoni” fondamentali di questi sistemi. Tali errori, causati da rumore, vibrazioni e interferenze elettromagnetiche, rendono i computer quantistici ancora scarsamente affidabili, ostacolando il potenziale rivoluzionario della tecnologia in settori come la scoperta di farmaci, il design dei materiali e la fisica. L’introduzione di AlphaQubit, un sistema basato sull’intelligenza artificiale sviluppato da Google DeepMind, sembra poter rappresentare una vera svolta.
Cos’è AlphaQubit e come funziona
AlphaQubit è un “decoder AI” progettato per identificare e correggere gli errori nei calcoli effettuati dai computer quantistici. L’innovativo sistema sfrutta la potenza dei Transformer, le reti neurali avanzate utilizzate nei Large Language Models (LLM), come quelli alla base di ChatGPT, per analizzare i dati raccolti durante le operazioni di calcolo e predire con estrema precisione se un qubit avesse subìto un errore.
Il processo di correzione degli errori quantistici sfrutta il concetto di ridondanza quantistica: più qubit fisici vengono raggruppati per formare un singolo qubit logico. Ogni gruppo di qubit esegue dei controlli di coerenza per rilevare eventuali disallineamenti e inviare questi dati al decodificatore per lo svolgimento di eventuali operazioni di correzione.
La strada verso computer quantistici davvero affidabili
Negli esperimenti condotti da Google DeepMind, AlphaQubit ha dimostrato prestazioni mai fatte registrare prima. Messo alla prova su blocchi da 49 qubit, AlphaQubit ha ridotto del 6% gli errori rispetto al metodo basato su tensor network. Quest’ultimo, seppur preciso, è troppo lento per le operazioni su larga scala. Inoltre, AlphaQubit è riuscito a ridurre del 30% gli errori rispetto al correlated matching, altro decoder molto veloce e preciso.
A questo punto, l’obiettivo consiste nell’integrare AlphaQubit nei dispositivi quantistici più grandi e complessi. La sfida resta sempre quella legata alla velocità di esecuzione, in quanto le misurazioni dei qubit in un processore quantistico possono avvenire fino a un milione di volte al secondo.
Questo comportamento complica la correzione degli errori in tempo reale, specialmente su sistemi che – in prospettiva – utilizzeranno milioni di qubit.
Il team di Google è al lavoro per affrontare le sfide in termini di performance e scalabilità per sveltire il processo di costruzione di computer quantistici che possano essere davvero affidabili e utilizzabili in applicazioni delicate, difficilmente gestibili anche con i più moderni supercomputer di classe exascale.