Ne stanno parlando tutti ma non è affatto una novità. Già da tempo i ricercatori dell’Università cinese di Zheijiang avevano dimostrato come fosse possibile trarre in inganno assistenti digitali come Google Assistant, Alexa, Siri e Cortana obbligandoli a compiere operazioni mai richieste dall’utente. Ne avevamo parlato nel nostro articolo Google Assistant, Siri, Alexa, Cortana e gli altri assistenti digitali ascoltano gli ultrasuoni.
I delfini comunicano attraverso gli ultrasuoni utilizzando frequenze solo in parte udibili da parte dell’orecchio umano. Ed è proprio per questo motivo che gli esperti hanno battezzato l’aggressione nei confronti degli assistenti digitali DolphinAttack.
Riproducendo un file audio contenente comandi vocali su frequenze oltre i 20.000 Hz, l’orecchio umano non percepirà alcun suono mentre Google Assistant, Alexa e Siri “si sveglieranno” e si attiveranno per compiere le operazioni richieste.
Gli assistenti digitali sono infatti pensati per restare sempre in ascolto così da rilevare in tempo reale i quesiti degli utenti e attivarsi per fornire tempestivamente risposte pertinenti.
Più di recente gli studenti e i ricercatori dell’Università di Berkeley, in California, hanno compiuto un passo in più e hanno provato a nascondere i comandi vocali all’interno di brani musicali, come quelli normalmente riprodotti attraverso YouTube, nonché all’interno di eBook e altri tipi di documenti.
Quando aperti con il proprio dispositivo o su PC (con le casse audio accese), gli assistenti digitali riconoscono il comando vocale nascosto e lo eseguono senza colpo ferire.
Google, Apple, Amazon e Microsoft non hanno al momento ancora commentato il problema nello specifico anche se l’impostazione di un filtro che “tagli” automaticamente le frequenze superiori a una certa soglia, corrispondente al limite udibile dall’orecchio umano, sarebbe senza dubbio una soluzione efficace per impedire qualunque tipo di attacco.