Ultimamente la discussione sugli strumenti per combattere le fake news, gli articoli dal contenuto completamente inventato, prodotti con il preciso scopo di guadagnare clic o di mettere in cattiva luce altri soggetti, ha raggiunto livelli mai visti prima.
Di recente sia Google (Fact checking: arriva il bollino di Google per le notizie verificate) che Facebook (Notizie false su Facebook: ecco come saranno combattute) hanno presentato alcune delle nuove misure che saranno messe in campo per contrastare il proliferare in Rete di notizie fasulle.
In un lungo post redatto da Ben Gomes, VP of Engineering per Google Search, l’ingegnere spiega che da quando è nato il motore di ricerca di Mountain View – nel mese di settembre 1997 – la sfida è sempre stata quella di mostrare, nei primi posti delle SERP (le pagine dei risultati mostrate in risposta a una qualunque interrogazione dell’utente), informazioni pertinenti e pagine con contenuti di qualità.
Gomes spiega che da sempre, con alterne fortune, si è cercato di ottimizzare gli algoritmi di ranking per favorire i siti di qualità e penalizzare le pagine che utilizzano contenuti scadenti (content farm) nel tentativo di apparire “interessanti” agli occhi del motore di ricerca, testi nascosti e altre pratiche ingannevoli.
“Oggi, in un mondo in cui vengono pubblicate online decine di migliaia di pagine ogni minuto, ci sono nuovi metodi con cui le persone cercano di imbrogliare il sistema. Quello più visibile è il fenomeno delle “fake news”, per cui del contenuto presente sul web ha contribuito a diffondere informazioni palesemente ingannevoli, di scarsa qualità, offensive o completamente false“, scrive ancora Gomes.
Per gestire i tanti casi di notizie fasulle che appaiono quotidianamente online, Google ha nuovamente aggiornato gli algoritmi utilizzati dal motore di ricerca in modo da far emergere le pagine più autorevoli e far retrocedere contenuti di scarsa qualità.
Gomes spiega che problemi come quello delle pagine che negano l’Olocausto (increscioso fatto accaduto a dicembre scorso) dovrebbero, proprio grazie all’aggiornamento sugli algoritmi di ranking, presentarsi con una probabilità nettamente inferiore.
Google spiega di avvalersi anche di veri e propri “valutatori”: persone in carne ed ossa incaricate di verificare la bontà dei risultati proposti nelle SERP e autorizzate a proporre migliorie.
L’azienda fondata da Larry Page e Sergey Brin, per combattere contenuti sconvenienti e fake news, chiederà poi l’aiuto degli stessi utenti.
A breve, infatti, anche nella versione italiana del motore di ricerca di Google apparirà un link che consentirà di segnalare suggerimenti fuori luogo eventualmente forniti dalla funzionalità “Completamento automatico“ e nel riquadro Snippet, mostrato in alcuni casi come primo risultato nelle pagine SERP.
“Nel corso degli ultimi mesi ci sono state poste domande difficili sul perché nel Completamento automatico comparissero previsioni di ricerca scioccanti o offensive. Su questa base, abbiamo valutato come migliorare le nostre policy sul contenuto e le abbiamo aggiornate di conseguenza“, osserva Gomes.
Sì, perché il funzionamento del “Completamento automatico” e degli “Snippet in primo piano” è gestito in totale autonomia dal sistema, sulla base degli algoritmi messi a punto dai tecnici di Google. Può capitare che, in qualche caso, in forza dei “segnali” ai quali fa fede Google dei contenuti inadatti vengano automaticamente suggeriti oppure visualizzati in primo piano.
E non potrebbe accadere diversamente visto che ogni giorno il motore di ricerca di Google si trova a elaborare un 15% di ricerche del tutto nuove.
L’obiettivo è migliorare ulteriormente gli algoritmi di ranking e selezione delle informazioni rilevanti, anche grazie all’aiuto degli stessi utenti.