Il segnale WiFi emesso da semplici router commerciali possono essere utilizzati per rilevare e percepire le pose e le posizioni degli esseri umani mappando i loro corpi in 3D.
Non è propriamente una novità: nel corso del tempo i segnali wireless sono stati utilizzati a più riprese per rilevare la presenza umana nelle vicinanze di un dispositivo elettronico.
La tecnologia Proximity Sensing di Intel, ad esempio, è di recente entrata a far parte dei processori Raptor Lake con l’obiettivo di verificare quando una persona si allontana dal PC o, viceversa, torna a sedersi alla sua postazione.
Ancora più recentemente, il NIST ha presentato un progetto che mira a riconoscere problemi respiratori usando solo il WiFi.
Con l’aiuto delle reti neurali e del deep learning, i ricercatori della Carnegie Mellon University sono stati in grado di creare immagini 3D dell’intero corpo umano delle persone presenti in una stessa stanza esaminando soltanto le caratteristiche del segnale WiFi irradiato da tre router TP-Link.
Nel settore della visione computerizzata si parla da tempo delle migliori metodologie per stimare le pose degli esseri umani. La differenza è che la soluzione presentata dal team di accademici mette da parte l’utilizzo di sensori RGB, LiDAR e tecnologia radar.
A mo’ di test gli studiosi si sono serviti di tre trasmettitori WiFi, come quelli montati nel router TP-Link Archer A7 AC1750. Posizionandoli in un unico ambiente all’interno del quale si muovevano tre individui, sono riusciti a ottenere i loro modelli wireframe.
Se la tecnologia venisse perfezionata e si trasformasse in un prodotto o un servizio commerciale, magari integrato proprio nei dispositivi per il networking wireless, potrebbe essere adoperata in molteplici campi ed essere usata per l’assistenza sanitaria, la sicurezza, la realtà virtuale e molto altro ancora.
Permetterebbe anche di superare problemi che interessano le normali telecamere, come la scarsa illuminazione o la presenza di ostacoli.
Per raggiungere l’obiettivo prefisso, i ricercatori hanno analizzato l’ampiezza e la fase del segnale WiFi per trovare segnali di “interferenza” umana e successivamente hanno consegnato i dati raccolti in tempo reale agli algoritmi di intelligenza artificiale per produrre le immagini wireframe ossia le ricostruzioni del corpo umano.
Il progetto è stato battezzato DensePose from WiFi per differenziarlo dall’omonima tecnologia sviluppata da Meta e utilizzata in Facebook. La versione di DensePose realizzata dalla società di Mark Zuckerberg è diversa perché genera immagini 3D della silhouette umana partendo da un’immagine RGB piatta, non tramite l’utilizzo di segnali WiFi.
I ricercatori dell’università situata a Pittsburgh, in Pennsylvania, sostengono che la loro intuizione sia destinata a raccogliere interesse perché si tratta di una soluzione facilmente implementabile e molto economica. Il sistema può essere migliorato addestrando con maggiore attenzione il modello.