Questa settimana Apple ha mostrato il suo sistema NeuralMatch ad alcuni accademici statunitensi. Si tratta di una soluzione tecnologica che verrebbe utilizzata per esaminare automaticamente il contenuto dei dispositivi mobili basati su iOS 15, iPadOS 15 e macOS Monterey alla ricerca di immagini illegali.
Il sistema avvertirebbe un team di revisori umani circa eventuali attività legate alla pedofilia. Dopo una serie di verifiche Apple contatterebbe le forze dell’ordine per segnalare la scoperta del materiale.
Apple ha confermato i suoi piani in un post sul blog dell’azienda sostenendo che la tecnologia di scansione è parte di una nuova piattaforma per la protezione dei più piccoli che evolverà e verrà estesa nel corso del tempo. Considerate le pesanti implicazioni in materia di privacy la Mela partirà con una sperimentazione negli Stati Uniti mentre in Europa non si parla di nulla neanche lontanamente simile.
I ricercatori e gli esperti di sicurezza informatica e privacy, pur sostenendo gli sforzi per combattere gli abusi sui bambini, sono preoccupati per l’azione che sta mettendo in campo Apple. Secondo le valutazioni dei più l’azienda di Cupertino rischia di mettere nelle mani dei governi di tutto il mondo uno strumento efficace per l’accesso ai dati personali degli utenti con la possibilità di andare alla ricerca di qualunque tipo di contenuto, anche senza che i diretti interessati ne siano pienamente consapevoli.
“È un’idea assolutamente spaventosa perché porterà alla sorveglianza di massa sui nostri dispositivi“, ha detto Ross Anderson, professore di ingegneria della sicurezza presso l’Università di Cambridge.
Anche se il sistema è attualmente addestrato per individuare contenuti penalmente rilevanti come quelli degli abusi sui minori, potrebbe essere modificato per eseguire la scansione di qualsiasi altra immagine o testo. Il precedente di Apple potrebbe aumentare la pressione sulle altre aziende tecnologiche perché utilizzino strumenti simili.
“Questo romperà la diga perché sarà qualcosa che i governi richiederanno a tutte le aziende tecnologiche“, ha aggiunto Matthew Green, docente presso la Johns Hopkins University.
Gli fa eco anche Alec Muffett, ricercatore esperto di privacy che ha lavorato in precedenza per Facebook e Deliveroo descrivendo la scelta di Apple come un “enorme passo indietro sul piano della tutela della privacy degli individui“.
I sistemi di archiviazione delle foto basati sul cloud e i siti di social networking già eseguono la scansione del contenuto delle immagini caricate ma il processo diventa molto più complesso quando si cerca di accedere ai dati memorizzati sui dispositivi degli utenti.
Apple si è difesa spiegando che il suo sistema non è invasivo perché la verifica viene fatta in locale e solo se vi fosse una corrispondenza viene inviata una notifica al team.
C’è di più. Apple introdurrà nuovi strumenti che avvisano i genitori se un bambino invia o riceve foto sessualmente esplicite attraverso l’app Messaggi. Secondo la Mela la nuova funzionalità di protezione ha lo scopo di consentire ai genitori di svolgere un ruolo più attivo e informato quando si tratta di aiutare i loro figli a imparare a navigare online.
Tutte le elaborazioni vengono eseguite sul dispositivo locale e nessun dato verrà in ogni caso trasferito sui server di Apple.
Quando una foto “sconveniente” viene rilevata in una conversazione l’immagine verrà bloccata e un’etichetta informerà circa la natura della foto.
Taglienti i primi commenti di Electronic Frontier Foundation (EFF) che parla di grave minaccia per la privacy dei cittadini e clienti Apple.