Alcuni tecnici Google hanno presentato un algoritmo che permette di creare animazioni e video a partire dalle immagini di Street View. La principale prerogativa dell’algoritmo – battezzato DeepStereo – è che esso riesce a colmare “il gap” tra uno scatto e l’altro riducendo quindi le lacune fra un’immagine e quella seguente. Si tratta insomma di un’evoluzione rispetto a progetti come Hyperlapse, che avevamo presentato a suo tempo (Un’applicazione web per i viaggi virtuali con Street View).
L’effetto che si ottiene è notevole se si pensa che il video di esempio appena pubblicato viene riprodotto a 24 fps utilizzando semplicemente le foto rese pubbliche attraverso il servizio Street View.
Il meccanismo alla base della generazione dei frame inseriti tra una foto e l’altra di Street View è stato descritto da John Flynn, uno dei tecnici in forze presso la società statunitense. Partendo da due foto si possono generare le immagini intermedie generandone di nuove così come se l’osservatore cambiasse via a via il suo punto di vista.
Il trucchetto che consiste nel modificare l’angolo visivo è efficacissimo ed unito alle capacità di elaborazione dei server di Google, ha permesso di produrre centinaia di immagini addizionali (interpolazione).
Flynn ha spiegato che quello messo a punto è un algoritmo che di fatto implementa una “visione computerizzata” del mondo reale. Certo, il meccanismo è ancora suscettibile di numerose migliorie ma a giudicare dal risultato il traguardo appena raggiunto è senza dubbio notevole e potrebbe aprire nuove possibilità.
Il progetto DeepStereo, sebbene sia stato realizzato da alcuni tecnici di Google, sembra comunque un’iniziativa autonoma per il momento non supportata in via ufficiale dal colosso di Mountain View.
Nel riquadro in alto a destra vengono mostrate le immagini di Street View mentre, osservando il video, ci si rende immediatamente conto di come siano state aggiunte molteplici immagini intermedie così da rendere il filmato il più fluido possibile.