In occasione del Search Marketing Expo – SMX Advanced di Seattle, appena conclusosi, Matt Cutts – noto ingegnere software di Google – ha anticipato che i tecnici del gigante di Mountain View pubblicheranno presto l’aggiornamento 2.2 dell’algoritmo Panda, col quale – da qualche tempo – si sta cercando di porre fine al fenomeno del “webspam” dando contemporaneamente più visibilità alle pagine web migliori dal punto di vista qualitativo (ved., in proposito, questo nostro articolo).
Cutts, nel corso di un “botta e risposta”, ha rivelato che una nuova versione di Panda sarebbe già stata approvato dai vertici dell’azienda ma che per il momento non è stata ancora attivata. L’obiettivo è sempre lo stesso: smascherare e penalizzare quei siti web che sono empi di pagine scarsamente rilevanti per il lettore, create col solo scopo di scalare le SERP. La stragrande maggioranza dei webmaster, insomma, almeno di coloro che si “comportano bene”, non rileveranno cambiamenti particolari.
Nel nuovo aggiornamento di Panda ci si è voluti concentrare anche sulla risoluzione di alcune problematiche segnalate dagli utenti. Non è dato sapere in che misura la nuova release dell’algoritmo di ranking messo a punto nei laboratori di Google lenirà tali problemi ma è certo che i tecnici stanno lavorando su più aspetti ritenuti critici. In primis, si sta cercando di rilevare quei siti che, offrendo “condensati” di articoli tratti da altre pagine, di fatto contribuiscono ad abbassare il ranking dei siti originali.
Cutts ha poi voluto rimarcare a chiare lettere come Google non imposti mai delle “eccezioni” al comportamento dei suoi algoritmi di indicizzazione e ranking. In pratica, tutto è effettuato in maniera automatizzata e l’esperto di Mountain View ha voluto così invitare a non lanciare più illazioni in tal senso.
Infine, gli algoritmi utilizzati da Google non misurerebbero l'”usabilità” dei siti web: non sarebbero quindi in grado di esprimere un giudizio arbitrario sulla struttura delle pagine.
Non è chiaro quando tutte le funzionalità di Panda saranno completamente estese anche ai siti web che “non parlano” la lingua inglese. Nel frattempo, chi dovesse subire delle penalizzazioni dovrebbe verificare in quali aspetti è probabilmente carente. Gli aspetti che gli esperti consigliano di controllare sono i seguenti: accertarsi che il proprio sito web non ospiti contenuti duplicati, che non si utilizzino eccessivamente gruppi di parole chiave, che non si commettano troppo spesso errori grammaticali o di punteggiatura, che non manchino all’appello tag meta (title e descrizioni), che non si abbiano performance lato utente troppo ridotte (bassa permanenza sul sito dei lettori, frequenti bounce,…), che non si espongano troppi banner pubblicitari rispetto alle informazioni presenti nella medesima pagina.
Frattanto, Google sta anche cercando di integrare Analytics con i Webmaster Tools: l’obiettivo è quello di mettere nelle mani dei webmaster una serie di strumenti aggiuntivi che consentano di verificare più da vicino l’andamento del traffico all’interno del sito traendo vantaggio da alcune informazioni interessanti in ottica SEO (Search Engine Optimization). Coloro che fossero interessati ai test d’integrazione tra i due strumenti firmati Google, possono avanzare una richiesta compilando il form disponibile cliccando qui.