Il laboratorio di ricerca di Google (ATAP, Advanced Technology and Projects), lo stesso che ha ideato il progetto di smartphone modulare (Ara; vedere questi articoli), nella seconda giornata dedicata alla conferenza I/O, ha presentato due interessanti novità destinate al mercato dei dispositivi indossabili: Project Jacquard e Project Soli.
Gli abiti che permettono di gestire smartphone ed altri dispositivi con un semplice tocco del tessuto
Project Jacquard prevede la creazione di speciali stoffe contenenti filamenti metallici che offrono la possibilità di controllare qualunque dispositivo mobile. Basta infatti sfiorare con le dita il vestito che s’indossa per impartire un comando specifico.
Ad esempio, spostando la mano verso l’alto e verso il basso, sul sensore metallico legato alla fibra dell’abito è ad esempio possibile alzare o diminuire il volume; spostando la mano verso destro o sinistra, invece, si può ad esempio programmare la riproduzione della traccia musicale precedente o di quella successiva.
Si possono comunque utilizzare altre gestures, quali ad esempio la “pressione” sul tessuto od il tocco multiplo e simultaneo con più dita.
Ciascun movimento può essere liberamente associato a specifici comandi od attività.
Il primo partner di Google per quanto riguarda Project Jacquard ha un nome senza dubbio altisonante: Levi’s. Non è dato sapere quando arriveranno sul mercato i primi abiti dotati di sensore metallico.
Maggiori informazioni su Project Jacquard sono disponibili sul sito ufficiale.
Un radar dentro gli smartwatch: Project Soli
Sulla stessa lunghezza d’onda Project Soli. L’idea è quella di radar negli smartwatch con l’obiettivo di rilevare con precisione ed in modo efficace un vasto numero di movimenti.
La caratteristica innovativa di Project Soli è senza dubbio il concetto di miniaturizzazione portato agli estremi: in un chip di 9 millimetri quadrati, infatti, sono inserite due antenne RF a 60 GHz capaci di registrare qualcosa come fino a 10.000 immagini al secondo.
Grazie al software di Google, Project Soli viene utilizzato per rilevare con precisione i movimenti della mano e, nel caso in cui si trattassero di gestures, provvede a svolgere le azioni corrispondenti.
L’idea è quella di replicare ciò che si può fare, normalmente, con uno schermo multitouch con la differenza che il radar di Project Soli riesce a rilevare i movimenti in aria, senza sbracciarsi ma rilevando gesti semplicemente accennati.