A partire dal prossimo mese, Meta porterà l’intelligenza artificiale nei suoi occhiali smart Ray-Ban, come rivelato dal New York Times. Le funzioni di AI multimodale, capace di eseguire traduzioni e identificare oggetti, animali e monumenti, sono in fase di accesso anticipato da dicembre scorso. Questa novità promette di arricchire l’esperienza d’uso degli smart glasses, offrendo agli utenti un assistente AI sempre a portata di mano.
Interazione vocale e risposta attraverso gli altoparlanti integrati
Per attivare l’assistente intelligente degli occhiali, basterà pronunciare “Hey Meta” e poi formulare un messaggio o porre una domanda. La risposta di Meta arriverà attraverso gli altoparlanti integrati nella montatura. Il NYT ha avuto modo di testare il funzionamento dell’AI di Meta in diverse situazioni, dal giro in un negozio di alimentari alla guida, passando per musei e persino lo zoo. Questa versatilità evidenzia il potenziale degli smart glasses come compagni digitali in molteplici contesti.
Durante i test, l’AI di Meta si è dimostrata in grado di riconoscere correttamente animali domestici e opere d’arte, ma non ha raggiunto il 100% di accuratezza. In particolare, gli occhiali hanno faticato a identificare gli animali dello zoo che erano lontani e dietro le gabbie. Inoltre, non hanno riconosciuto correttamente un frutto esotico, la cherimoya, dopo diversi tentativi. Questi episodi suggeriscono che c’è ancora spazio per perfezionare le capacità di riconoscimento visivo degli smart glasses.
Traduzioni AI in 5 lingue
Per quanto riguarda le funzionalità di traduzione, il NYT ha rilevato che gli occhiali supportano inglese, spagnolo, italiano, francese e tedesco. Questa caratteristica multilingue amplia ulteriormente le potenzialità degli smart glasses, rendendoli utili compagni di viaggio e strumenti di comunicazione interculturale.
Accesso anticipato per gli utenti statunitensi
Al momento, le funzioni AI degli occhiali smart Ray-Ban Meta sono disponibili solo attraverso una lista d’attesa di accesso anticipato per gli utenti degli Stati Uniti. È probabile che Meta continuerà a perfezionare queste funzionalità nel tempo, prima di un eventuale lancio su scala più ampia.