Sull’utilizzo di codice binario, costituito da sequenze di 0 e 1, si basa il computing tradizionale. Si tratta del sistema che è alla base di tutti i dispositivi digitali, dai PC agli smartphone, dalle workstation ai server. L’unità fondamentale dell’informazione è il bit, che può appunto assumere lo stato di 0 oppure di 1. L’elaborazione dei dati avviene tramite algoritmi che manipolano e combinano sequenze di bit più o meno lunghe per eseguire operazioni articolate e complesse.
Il computing basato su bit, quindi sul sistema binario con 0 e 1, ha avuto le sue origini negli anni ’30 e ’40 del XX secolo con lo sviluppo dei primi calcolatori elettronici. Uno dei precursori più famosi è il calcolatore binario Atanasoff-Berry, sviluppato dal fisico John Atanasoff e dal suo assistente Clifford Berry presso l’Università dell’Iowa (USA). Il calcolatore, completato nel 1942, faceva uso di un sistema binario per rappresentare i dati e le istruzioni, rendendolo uno dei primi esempi di calcolatore digitale elettronico.
Vero punto di svolta, l’introduzione dell’ENIAC (Electronic Numerical Integrator and Computer) nel 1946, sviluppato dagli ingegneri John Presper Eckert e John William Mauchly presso l’Università della Pennsylvania. Si tratta di uno dei primi calcolatori elettronici a larga scala che ha di fatto segnato l’inizio dell’era del computing basato sui bit.
In un altro articolo abbiamo visto cos’è il codice binario e la differenza tra bit e byte: partiamo da lì per capire in quale direzione ci stiamo muovendo da alcuni anni a questa parte.
Come cambia l’elaborazione informatica
L’elaborazione informatica ha subìto una rapida evoluzione dai primi calcolatori elettronici fino ai moderni dispositivi informatici. Uno dei passaggi più significativi in questa evoluzione lo stiamo vivendo proprio ai giorni nostri, con il passaggio dal codice binario tradizionale al quantum computing, una frontiera che promette di rivoluzionare radicalmente il modo in cui affrontiamo problemi computazionali complessi.
Alcuni problemi, come la simulazione precisa di molecole complesse per la ricerca farmaceutica o la fattorizzazione di numeri primi molto grandi in ambito crittografico, giusto per fare un paio di esempi, richiedono una potenza di calcolo che va ben oltre le capacità dei computer tradizionali. Anche i supercomputer più avanzati generalmente si trovano in difficoltà per risolvere alcune sfide computazionali. In un altro articolo abbiamo visto, infatti, quali problemi risolvono i computer quantistici.
Il quantum computing ha il potenziale per trasformare molteplici settori. La crittografia quantistica potrebbe rendere obsoleti gli algoritmi di crittografia attuali, da un lato spazzando via la sicurezza delle attuali comunicazioni ma dall’altro contribuendo a predisporre hardware e software per scambi di dati ancora più sicuri.
Nella scienza dei materiali, il quantum computing potrebbe accelerare la scoperta di nuovi materiali con proprietà rivoluzionarie. In campo farmaceutico, potrebbe consentire la simulazione accurata delle interazioni molecolari, rivoluzionando lo sviluppo di farmaci.
Quantum computing: sfruttare la fisica quantistica
Il quantum computing si basa sui principi della meccanica quantistica per rivoluzionare l’approccio usato nelle elaborazioni informatiche. Invece dei bit, i computer quantistici utilizzano qubit.
I qubit, unità di informazione quantistica, possono esistere in uno stato di 0, 1 o in entrambi simultaneamente, grazie a un fenomeno chiamato sovrapposizione. Questo comportamento consente al quantum computer di esplorare molteplici soluzioni in contemporanea, aumentando enormemente la potenza di calcolo.
Si pensi all’esempio del lancio di una moneta: i bit rappresentano solo “testa” o “croce”. Diversamente, i qubit possono rappresentare le diverse posizioni della moneta mentre volteggia in aria prima di cadere.
Gli stati 0, 1 in un qubit possono coesistere, come abbiamo detto, grazie alla sovrapposizione quantistica. Inoltre, lo stato di un qubit può essere correlato allo stato di un altro (entanglement). Più qubit possono quindi risultare interconnessi reciprocamente in maniera tale che lo stato di uno influenzi istantaneamente quello degli altri.
Queste proprietà consentono al quantum computer di elaborare informazioni in modi completamente nuovi, superando i limiti della computazione classica.
Migrazione da bit a qubit: è ancora molto molto lontana
Non pensiate che, all’improvviso, si passi dall’informatica tradizionale basata sull’utilizzo di codice binario ai computer quantistici che lavorano utilizzando qubit.
Parlando di coerenza dei dati, siamo ancora ben lontani dal poterci avvalere di computer quantistici capaci di dare stabilità ai qubit. Per loro natura, infatti, sono “delicati” e sono soggetti e interferenze esterne, rendendo difficile mantenere l’integrità dei calcoli.
Limitandoci al solo campo applicativo della sicurezza informatica e della crittografia, nello studio di Craig Gidney e Martin Ekerå del 2019, i due ricercatori sostenevano ci vorrebbero 20 milioni di qubit per completare con successo la fattorizzazione di una chiave RSA-2048 in appena 8 ore.
A dicembre 2023, IBM ha presentato i suoi processori quantistici Condor a 1.121 qubit: mentre a ottobre 2023 Atom Computing ha annunciato un dispositivo quantistico a 1.180 qubit. Si tratta del traguardo più elevato raggiunto fino ad oggi. L’aspetto più rilevante è che, ovviamente, è possibile combinare più processori per realizzare un supercomputer quantistico. Che ad oggi, però, deve necessariamente fare i conti con tassi di errore piuttosto elevati. Un problema che gli ingegneri stanno cercando di mitigare utilizzando vari approcci.
Ancora per tanti anni, quindi, avremo a che fare con computer tradizionali, che lavorano sulla logica 0, 1. I qubit sono ancora troppo vulnerabili alle interferenze esterne e non mantengono l’informazione quantistica per un tempo sufficientemente lungo da eseguire operazioni complesse.
La stessa correzione degli errori, che nei computer classici spesso è facilmente gestibile (grazie alla presenza di due soli stati), è estremamente complessa nei computer quantistici, che sono peraltro anche poco scalabili e difficili da integrare con sistemi di elaborazioni di dati classici.
I ricercatori del MIT hanno recentemente presentato i qubit fluxonium, per un approccio alternativo allo sviluppo dei computer quantistici che può consentire l’ottenimento di risultati più accurati.
Byte… e i quByte?
Nel caso dei qubit, non c’è un’unità di misura direttamente paragonabile al byte dei sistemi classici. Tuttavia, si può usare il concetto di “quantum byte” (quByte o qByte) per rappresentare un insieme di qubit. In pratica, questo non è standardizzato come il byte tradizionale, ma è un’unità concettuale che rappresenta un certo numero di qubit. Questo concetto può variare a seconda del contesto e delle implementazioni specifiche.
Sebbene un byte sia composto da 8 bit, non c’è un’equivalenza diretta di quanti qubit sarebbero necessari per rappresentare un eventuale qByte, poiché la natura della computazione quantistica consente una manipolazione più complessa e parallela dell’informazione rispetto alla computazione classica. Inoltre, la quantità di informazione contenuta in un set di qubit può variare notevolmente in base al principio dell’entanglement e alle operazioni eseguite.
Nell’immagine di apertura il quantum computer IBM SystemOne (fonte: IBM).