Sundar Pichai, già amministratore delegato di Alphabet, recentemente designato CEO di Google (Cambia la guida ai vertici di Alphabet-Google: lasciano Larry Page e Sergey Brin), ha scritto una sorta di lettera aperta che è stata pubblicata in esclusiva dal Financial Times.
La missione di Alphabet e Google – spiega Pichai – consiste nel plasmare nuove tecnologie per “cambiare in meglio la vita delle persone in tutto il mondo e le due aziende stanno cercando di sfruttare il potenziale dell’intelligenza artificiale“.
Il numero uno dei Alphabet e Google spiega che Nature ha pubblicato una ricerca elaborata internamente che mostra come modelli basati sull’intelligenza artificiale possano ad esempio aiutare i medici nelle diagnosi di cancro al seno, per fare previsioni immediate e “iperlocalizzate” delle precipitazioni in modo più rapido e preciso (si tratta di sforzi che si inseriscono nell’ambito di una serie più ampia di strumenti progettati per combattere il cambiamento climatico), per ottimizzare il traffico aereo e ridurre i ritardi dei voli (Lufthansa Group sta lavorando proprio a questo scopo con la divisione cloud di Google).
La tecnologia, però, ed è questo il succo dell’intervento di Pichai, è sempre un “mezzo”, uno strumento con il quale si possono raggiungere degli obiettivi. È l’uso scorretto che se ne fa che talvolta può portare a spiacevoli conseguenze. “Internet ha permesso di connettersi con chiunque e di ottenere informazioni da qualsiasi luogo ma anche di diffondere più facilmente informazioni errate“, osserva il CEO di Google. “Dobbiamo quindi mantenere la lucidità e capire per tempo cosa potrebbe andare storto. Ci sono preoccupazioni reali sulle potenziali conseguenze negative dell’intelligenza artificiale: si pensi ai “deep fake” creati appositamente per danneggiare qualcuno” (vedere Deepfake: cos’è, come funziona e perché fa paura) “o agli usi nefasti del riconoscimento facciale“.
All’inizio dell’anno nuovo quindi, Pichai auspica proposte normative intelligenti ed efficaci che permettano di normare l’utilizzo delle tecnologie basate sull’intelligenza artificiale e sul riconoscimento dei volti. “Una base normativa comune, allineata a livello internazionale, sarà essenziale e per arrivarci abbiamo bisogno di un accordo sui valori fondamentali“, sostiene Pichai. “Aziende come la nostra non possono limitarsi a costruire nuove promettenti tecnologie e lasciare che siano le forze che agiscono sul mercato a decidere come utilizzarle. Spetta anche a noi fare in modo che la tecnologia sia sfruttata per finalità legittime, rispettose dei diritti del singolo, e disponibile per tutti“.
L’amministratore delegato dell’azienda fondata dal duo Page-Brin prosegue osservando che proprio per questi motivi nel 2018 Google ha pubblicato alcuni principi di base ai quali dovrebbero sempre ispirarsi i servizi basati sull’intelligenza artificiale, per aiutare a guidare lo sviluppo etico e l’uso della tecnologia. “Queste linee guida ci aiutano a evitare pregiudizi, a testare rigorosamente la sicurezza, a progettare con la massima attenzione alla privacy e a rendere la tecnologia responsabile nei confronti delle persone. Vengono chiariti anche in campi applicativi nell’ambito dei quali Google/Alphabet non progetteranno o implementeranno mai l’intelligenza artificiale, ad esempio per sostenere la sorveglianza di massa o violare i diritti umani“.
Poiché principi che rimangono sulla carta hanno poco senso, Pichai spiega che i tecnici di Google hanno anche sviluppato strumenti per metterli in pratica: tool per testare le decisioni delle intelligenze artificiali al fine di verificarne l’equità e condurre valutazioni indipendenti sul rispetto dei diritti di ciascun individuo per quanto riguarda i nuovi prodotti.
“Siamo andati ancora oltre e abbiamo reso questi strumenti e il relativo codice con un approccio opensource, a disposizione di tutti“.
L’intelligenza artificiale ha il potenziale per migliorare il tenore di miliardi di vite ma il rischio maggiore potrebbe essere quello di non riuscire a raggiungere il traguardo.