Google ha appena varato un nuovo meccanismo che ha come obiettivo quello di evidenziare eventuale codice maligno presente nelle pagine web. Nel caso in cui il crawler (detto anche “spider” o semplicemente “bot”) di Google, nella sua attività di scansione del web (si tratta di un software che analizza i contenuti delle pagine Internet in modo metodico ed automatizzato, seguendo tutti vari link ipertestuali), dovesse rilevare la presenza di codice dannoso all’interno di una qualunque pagina, il motore di ricerca del colosso di Mountain View – nella pagina dei risultati (SERP) – mostrerebbe un avviso.
Gli amministratori dei siti web “infetti” potranno poi ricorrere ai “Webmaster Tools” (o “Strumenti per i webmaster”, in italiano) di Google per accedere alle informazioni dettagliate relative al codice dannoso. L’aiuto di Google può essere determinante per risolvere rapidamente il problema. Per utilizzare gli strumenti per i webmaster di Google, gli interessati dovranno necessariamente attivare un account utente.
Com’è ovvio, i tecnici di Google rammentano come il meccanismo di individuazione dell’infenzione debba essere sfruttato solamente per stabilire in quali pagine appare presente il codice nocivo. Per risolvere definitivamente la problematica e scongiurare ulteriori infezioni, si dovrà infatti provvedere a sanare le vulnerabilità presenti nell’applicazione web utilizzata. Ciò sarà possibile installando l’ultima versione dell’applicazione stessa oppure nel ricontrollare l’esposizione ad attacchi XSS e SQL Injection, se si tratta di una soluzione sviluppata in proprio.
Altra nuova caratteristica, appena lanciata da Google ed inserita tra gli strumenti per i webmaster, è la funzione “Visualizza come Googlebot” (sezione “funzioni sperimentali”): essa consente di verificare in che modo una qualunque pagina del sito che si amministra appare al crawler del motore di ricerca.