Degli strumenti di Clearview basati sull’intelligenza artificiale avevamo già parlato in passato: sono già utilizzati da numerose forze di polizia ed enti governativi per acquisire le generalità di una persona a partire da una semplice foto. I clienti di Clearview sono già oltre 3.000 stando a quanto affermato, compresi FBI, ufficio immigrazione USA e personale pubblico che svolge attività di sicurezza e protezione dei confini nazionali.
Soluzioni come Clearview sono diventate la “bestia nera” per molti perché aprono le porte a un riconoscimento su scala globale senza l’autorizzazione dei diretti interessati. Basta transitare dinanzi a una videocamera collegata con il software di riconoscimento facciale Clearview perché la propria identità venga immediatamente svelata.
Clearview ha a suo tempo specificato di usare solamente foto e dati pubblici attingendo a quelli pubblicati sul Web. È ovvio che le varie piattaforme social rappresentano una vera e propria miniera d’oro perché consentono di mettere in diretta corrispondenza le immagini degli individui con nomi e cognomi reali.
Se a gennaio 2020 il database di Clearview era stato formato utilizzando 3 miliardi di immagini oggi il CEO dell’azienda statunitense, Hoan Ton-That, afferma che il sistema di riconoscimento facciale basato sull’intelligenza artificiale utilizza qualcosa come oltre 10 miliardi di immagini.
Ton-That ha dimostrato il funzionamento della tecnologia scattando la foto a un giornalista mediante un’app per smartphone: Clearview ha immediatamente prodotto decine di immagini da numerosi siti web statunitensi e internazionali, ognuno dei quali mostrava la stessa persona – insieme con le sue generalità – attraverso foto raccolte lungo più di un decennio.
Clearview sostiene inoltre di essere in possesso di tecnologie utili per ricomporre le immagini sfocate e rimuovere maschere dai volti. Usando modelli di apprendimento automatico il sistema può calcolare i dettagli mancanti di un’immagine usando le poche informazioni disponibili e i modelli statistici elaborati a partire da altre immagini.
Non è ancora chiaro quanto accuratamente funzionino queste nuove tecniche ma gli esperti dicono che potrebbero aumentare il rischio che una persona sia identificata erroneamente esacerbando le critiche rivolte al sistema di Clearview.
Pensate poi alle persone che indossano una maschera per partecipare a una protesta pacifica o sono state offuscate per proteggere la loro privacy. È etico risalire comunque alla loro identità?
Un team di ricercatori universitari sta lavorando su un sistema per ingannare sistemi come Clearview battezzando questi meccanismi come strumenti estremamente pericolosi per la privacy dei singoli individui. D’altra parte Clearview, con gli ultimi aggiornamenti, sostiene di essere immune a tali tentativi.
Secondo Jonathan Zittrain, direttore del Berkman Center for Internet & Society di Harvard, le aziende come Facebook dovrebbero fare di più per proteggere gli utenti dallo scraping aggressivo posto in essere da società come Clearview.
Proprio come si fa con la rimozione dei metadati dalle immagini (dati EXIF) che potrebbero rivelare dove e quando sono state scattate le foto pubblicate sui social network, Zittrain dice che le aziende tecnologiche potrebbero usare algoritmi “ad hoc” per modificare le immagini in maniera tale da rendere irriconoscibili i soggetti raffigurati servendosi di meccanismi automatizzati (ma non all’occhio umano).
Jason Grosse, un portavoce di Facebook, ha aggiunto che l’attività di Clearview invade la privacy delle persone, motivo per cui la società è stata diffidata dal compiere qualunque ulteriore accesso a foto, video e dati pubblicati sul social network.
Per proteggersi, aggiungiamo noi, è sempre bene verificare come appare la propria pagina Facebook a un visitatore normale come può essere un bot di Clearview che effettua la scansione delle pagine alla ricerca di foto e video personali.