In letteratura si chiama “machine learning“, tradotto “apprendimento automatico“, quella branca dell’intelligenza artificiale che, grazie all’utilizzo delle informazioni provenienti da sensori o strutture dati, permette di attivare una sorta di processo decisionale da parte della macchina che, in un certo senso, amplia la propria “conoscenza”. Algoritmi di apprendimento automatico sono oggi utilizzati in molti settori dell’IT, dal riconoscimento vocale, alla visione assistita dal computer (Google rammenta il progetto Googles che sarà riutilizzato anche per realizzare degli occhiali per la realtà aumentata; vedere questi nostri articoli), dai sistemi per l’individuazione ed il blocco dello spam alle autovetture in grado di “guidardarsi da sole”. Si tratta comunque di una scienza per lungi dall’aver raggiunto la perfezione. “Accade di frequente che le proprie parole, sottoposte a riconoscimento vocale, siano trascritte in modo scorretto, che una traduzione risulti inadeguata o che un’immagine non venga riconosciuta“, osserva Jeff Dean (Google).
Dean spiega come il colosso di Mountain View sia cercando di compiere un netto passo in avanti. Una testimonianza concreta è l’esperimento condotto a termine in queste settimane e che ha previsto la creazione di una rete neurale formata da 16.000 CPU installate sui computer di uno dei centri di elaborazioni dati di Google. Una rete neurale artificiale, grazie all’utilizzo di hardware e software dedicati, mira ad imitare i processi svolti dal cervello umano.
Sì, perché oggi una macchina – spiega Dean – è in grado di distinguere la foto di una motocicletta da da quella di un’autovettura utilizzando un ricco database di immagini contenenti i due oggetti che debbono però essere chiaramente etichettati. Tutte le moto debbono essere descritte come tali così come tutte le auto. Trovando le similitudini fra i vari oggetti, il sistema potrà capire se, ad esempio, la foto trasmessa dall’utente contenga un’auto o una moto.
Nei laboratori di Google si è agito, stavolta, in maniera diversa: si è “dato in pasto” alla rete neurale artificiale migliaia di video provenienti da YouTube. Senza dare alcuna indicazione sugli oggetti rappresentati nei video, si è lasciato il sistema agire in maniera autonoma per circa una settimana. “La rete neurale artificiale è riuscita a scoprire com’è fatto un gatto senza che fosse stata precedentemente istruita sull’identità dei felini“, ha spiegato Dean. I gatti sono ciò che i sistemi di Google sono riusciti a riconoscere per primi, estrapolandoli con sicurezza (l’accuratezza in fase di rilevamento è superiore al 70%) dall’enorme mole di immagini contenute in ogni singolo video pubblicato su YouTube.
Per le parti del corpo ed i volti umani sembra che i test stiano dando risultati addirittura ancora più incoraggianti (circa l’82% dei rilevamenti corretti).
Stando ai dati rilasciati da Google, la rete messa a punto nei laboratori Google X (vedere l’articolo Google X: il laboratorio tra realtà e fantascienza), avrebbe simulato un miliardo di connessioni neurali quando il cervello umano ne conterrebbe 1.000 miliardi.