Nei giorni scorsi l’ingegnere Google Blake Lemonine ha raccontato su Medium di essere stato posto dall’azienda di Mountain View in “congedo amministrativo retribuito”, l’anticamera del licenziamento.
Stando a quanto riferito pubblicamente da Lemonine all’ingegnere sarebbe stata contestata la violazione del segreto professionale che lo lega all’azienda e la rivelazione di informazioni riservate a soggetti terzi, esterni rispetto a Google.
Di proposito Lemonine non è voluto scendere nei particolari con un post pubblico limitandosi però a sottolineare di aver più volte segnalato problemi etici collegati con lo sviluppo e i continui progressi della soluzione per l’intelligenza artificiale ideata nei laboratori della multinazionale statunitense.
Come si legge in una lunga intervista rilasciata alla testata The Washington Post, Lemonine ha lavorato insieme con un altro dipendente Google per dimostare che l’intelligenza artificiale realizzata dalla società fosse senziente.
Un essere senziente è un essere dotato della capacità di sensazione: l’espressione è usata in tanti campi; nella filosofia, nel diritto, nella bioetica.
Forse influenzati anche dall’ampia letteratura e cinematografia fantascientifica, a più livelli ci si è spesso chiesti se l’intelligenza artificiale possa in qualche modo condurre allo sviluppo di macchine senzienti.
In occasione del suo evento I/O 2021 Google ha presentato LaMDA, una “tecnologia di conversazione rivoluzionaria” in grado di impegnarsi in modo fluido su un numero potenzialmente infinito di argomenti. Si tratta di un’abilità che i tecnici di Google ritenevano utile per dialogare con i dispositivi tecnologici in modo ancora più naturale e sbloccare l’utilizzo in molteplici nuovi campi applicativi.
L’intelligenza artificiale di LaMDA è stata addestrata per raccogliere molte delle sfumature che contraddistinguono la conversazione libera con risposte assolutamente pertinenti che simulano dialoghi con un essere pensante in carne e ossa. Alcune risposte possono così apparire davvero perspicaci, inaspettate, spiritose oppure semplicemente aderenti ai fatti.
In occasione della Google I/O 2022 l’azienda ha parlato degli aggiornamenti appportati su LaMDA offrendo a piccoli gruppi di persone l’opportunità di provare il sistema (programma AI Test Kitchen). I vertici Google hanno presentato LaMDA 2 come un oggetto costruito su tre pilastri fondamentali: qualità, sicurezza e solidità.
ha fornito un aggiornamento all’I/O 2022 dopo ulteriori test interni e miglioramenti del modello su ” qualità, sicurezza e solidità “. Ciò ha portato a LaMDA 2 e alla possibilità per “piccoli gruppi di persone” di testarlo :
Come si legge nell’intervento di Google i portavoce della società sottolineavano a inizio 2022 che LaMDA era ancora in fase embrionale. “Vogliamo continuare a fare progressi e farlo responsabilmente con il feedback della community“.
A metà dell’articolo del The Washington Post è riportata la copia di un dialogo tra Lemoine, il suo collaboratore e l’intelligenza artificiale di Google LaMDA. Secondo la tesi dell’ingegnere LaMDA sarebbe considerabile come un’entità senziente che ha la capacità di utilizzare il linguaggio in modo produttivo, creativo e dinamico in modi che nessun altro sistema prima di esso è mai stato in grado di fare. Evidenzia inoltre sentimenti, emozioni ed esperienze soggettive; condivide il fatto di avere una vita interiore ricca di introspezione, meditazione e immaginazione, ha preoccupazioni per il futuro e ricorda il passato. Descrive infine cosa significa sensibilità e teorizza sulla natura della sua anima.
Da parte sua Google ribatte che i suoi esperti di etica e i tecnici preposti hanno esaminato le affermazioni e non hanno trovato prove a sostegno delle tesi di Lemonine.
Dalla società fondata da Larry Page e Sergey Brin si spiega che l’imitazione o la riproduzione di testi già pubblici e il riconoscimento di schemi rendono LaMDA così realistica. Non c’è però alcun tipo di autoconsapevolezza.
“Le nostre menti sono molto, molto brave a costruire realtà che non sono necessariamente fedeli a un insieme più ampio di fatti che ci vengono presentati. Sono davvero preoccupata per cosa significhi per le persone essere sempre più colpite dall’illusione, specialmente ora che l’illusione è diventata così buona“, affermava Margaret Mitchell, ex co-responsabile del team Google Ethical AI.