Effettuare la scansione completa del web in tre quarti d’ora è tutt’altro che fantascienza. A sostenerlo sono alcuni ricercatori dell’Università del Michigan che hanno presentato il progetto ZMap. Grazie al sistema appena messo a punto, sostengono gli accademici statunitensi, sarà possibile aprire la strada alla realizzazione di programmi basati sullo studio dell’intero web. E non solo, perché ZMap non permette di effettuare “ricerche” solamente sulle porte 80 e 8080 (HTTP) ma anche su qualunque altro canale di comunicazione.
Anche la Electronic Frontier Foundation (EFF) aveva recentemente illustrato un progetto simile. Per sottoporre a scansione miliardi di indirizzi univoci, però, il meccanismo di EFF impiegava dai due ai tre mesi per giungere a conclusione. NMap, il tool di EFF, infatti, dopo aver inviato una richiesta ad una singola macchina restava in ascolto della risposta. È pur vero che più richieste potevano essere istanziate simultaneamente tuttavia il processo di registrazione di ogni singola attività richiedeva molto tempo in più.
ZMap, invece, è “stateless” nel senso che ogni richiesta inviata viene poi “dimenticata”: ogni richiesta viene trasferita in forma codificata insieme con le informazioni ad essa relative. Ciò significa che ciascun pacchetto in arrivo, contenente le risposte delle macchine remote, potrà essere poi agevolmente identificato.
L’approccio scelto dagli esperti del Michigan introduce un minore overhead e, di conseguenza, permette di ottenere risultati 1.000 volte più velocemente rispetto alla soluzione presentata da EFF.
Utilizzando una connessione “Gigabit Internet”, quindi, gli accademici a stelle e strisce sono riusciti a “scansionare” l’intera Rete in appena 45 minuti.
A beneficio dei più scettici, gli studiosi dell’Università del Michigan hanno pubblicato eseguibili e codice sorgente di ZMap sul sito web dedicato all’iniziativa.