IBM starebbe lavorando su alcune tecnologie che coadiuveranno il funzionamento di quello che è destinato a diventare, senza ombra di dubbio, il telescopio più imponente di tutti i tempi. Stando a quanto programmato “Square Kilometre Array” (SKA) dovrebbe debuttare nel 2024 e sarà in grado di raccogliere una così vasta mole di dati sulle strutture dell’universo che qualunque sistema informatico odierno avrebbe grandi difficoltà a trattarli.
I responsabili di IBM hanno spiegato che nonostante la costruzione del nuovo telescopio non sia stata neppure avviata, sono maturi i tempi per cominciare a pensare un sistema che sia capace di gestire quantitativi di dati, a livello giornaliero, dell’ordine degli exabytes (un exabyte equivale a 1018 byte ossia ad un milione di terabyte e ad un miliardo di gigabyte).
Come termine di paragone, basti pensare che un exabyte è il doppio del traffico che si genera sul web ogni giorno. Tale mole di informazioni dovranno poi essere scaricata ed elaborata da postazioni remote: si pensi che il telescopio SKA sarà probabilmente installato in Australia oppure in Sud Africa e che i dati da esso prodotti, una volta riuniti e condensati, saranno inviati ai ricercatori di mezzo mondo.
I fondi per gli studi di IBM sono arrivati dal “Netherlands Institute for Radio Astronomy” (ASTRON) che in cinque anni verserà nelle casse di “Big Blue” una somma pari a 32,9 milioni di dollari. SKA è un progetto ambizioso sul quale sta investendo un consorzio composto da una ventina di agenzie governative: una volta che il nuovo telescopio diverrà operativo, gli scienziati di augurano di trovare un maggior numero di risposte sull’origine dell’universo, sulla sua forma e sulle sue dimensioni. In particolare, i ricercatori indagheranno in profondità su quanto è accaduto al momento del “Bing Bang” che si sarebbe verificato circa 13 miliardi di anni fa.
Ton Engbersen, uno dei ricercatori di IBM responsabili del progetto, ha spiegato che dal momento che il sistema informatico incaricato di elaborare i dati avrà dimensioni notevoli, si dovrà trovare una maniera per massimizzare l’impiego dei vari componenti hardware riducendo al minimo i consumi energetici ed ottimizzando all’estremo gli algoritmi per l’elaborazione dei dati. Secondo le prime stime, i dati in forma ottimizzata dovrebbero essere compresi tra 300 e 1.500 petabyte (un petabyte equivale a 1015 byte) all’anno. Tale volume di informazioni supererebbe abbondantemente quello oggi prodotto dal “Large Hadron Collider“, l’acceleratore di particelle situato al CERN di Ginevra, utilizzato per le ricerche sperimentali nel campo della fisica delle particelle, che attualmente genera circa 15 petabyte di dati all’anno.
Per maggiori informazioni sul progetto SKA, è possibile fare riferimento a questo sito web.