Negli ultimi anni, la ricerca sull’intelligenza artificiale (AI) ha raggiunto nuove vette, con l’emergere di progetti ambiziosi come quello dell’AGI. Diversi istituti di ricerca stanno lavorando per sviluppare sistemi che possano apprendere e adattarsi a situazioni mai viste prima, con un’efficienza e capacità di adattamento paragonabili a quelle di un essere umano. In questo contesto, OpenAI ha recentemente annunciato una partnership con un istituto di ricerca nazionale USA per accelerare la realizzazione di un’AGI robusta e versatile. Tuttavia, uno degli attori principali di questa rivoluzione è Google, che da decenni guida lo sviluppo di tecnologie avanzate nell’ambito dell’intelligenza artificiale.
Sebbene Google sia partita in ritardo rispetto ad esempio a OpenAI nel consegnare nelle mani degli utenti finali le sue innovazioni in campo AI (si pensi alle prestazioni poco convincenti di Bard, all’inizio, e le si paragoni con gli ottimi modelli Gemini di oggi…), è proprio dalla società di Mountain View che sono arrivate alcune delle idee più rivoluzionarie. Si pensi ad esempio al concetto di Transformer e di reasoning per i Large Language Models (LLM). Ne parliamo nell’articolo sull’AI spiegata semplice.
Due sviluppatori con 25 anni di esperienza in Google raccontano il viaggio verso l’Intelligenza Artificiale Generale
L’obiettivo AGI (Artificial General Intelligence) o Intelligenza Artificiale Generale è il traguardo verso il quale Google sta puntando in modo deciso e convinto. A rivelarlo sono Jeff Dean e Noam Shazeer, due sviluppatori che hanno visto com’è cambiata Google in 25 anni e quali sono le ambizioni più aggiornate. Sia Dean che Shazeer hanno infatti iniziato la loro carriera in Google nel 1999.
Noam Shazeer ha avuto un ruolo fondamentale nella creazione di tecniche come il modello Transformer, che ha dato un forte impulso alla creazione delle moderne soluzioni basate sull’intelligenza artificiale generativa. Il suo nome si legge tra gli autori dello studio “Attention Is All You Need“. Ma Shazeer è anche il creatore di architetture come Mixture of Experts e Mesh TensorFlow, che hanno permesso di superare le barriere precedenti in termini di scalabilità e potenza di calcolo. Questi sviluppi hanno portato alla creazione di modelli di linguaggio che non solo comprendono ma generano anche contenuti testuali, risolvendo compiti complessi.
Jeff Dean ha contribuito in modo determinante alla creazione dei sistemi di elaborazione avanzata come MapReduce, Bigtable e TensorFlow. Ognuna di queste innovazioni ha avuto un impatto profondo nel settore dell’AI, ponendo le basi per le moderne architetture di machine learning. Dean ha anche partecipato allo sviluppo di Gemini, l’ultima generazione dei modelli generativi avanzati di Google, che ha ulteriormente spinto i limiti delle capacità di elaborazione del linguaggio naturale.
Prospettive future e obiettivi di Google nel campo dell’Intelligenza Artificiale
Guardando al futuro, Dean e Shazeer (l’intervista integrale è visionabile su YouTube) prevedono che i modelli di intelligenza artificiale evolveranno ulteriormente, acquisendo la capacità di risolvere problemi ancora più complessi. Attualmente, un sistema AI moderno può affrontare compiti suddividendoli in 10 sottocompiti, con un tasso di successo dell’80%. Tuttavia, i ricercatori immaginano un futuro in cui l’AI sarà in grado di suddividere un compito in 1000 sottocompiti, con un margine di successo che potrebbe superare il 90%. Questo tipo di progresso porterebbe a un’intelligenza artificiale in grado di eseguire attività sempre più sofisticate con una precisione incredibile.
Un altro obiettivo cruciale è l’integrazione dei modelli linguistici in modalità sempre più diverse, che spaziano dal testo, alle immagini, ai video e all’audio. Questa visione ambiziosa mira a rendere l’AI non solo più intelligente nel comprendere il linguaggio umano, ma anche capace di interagire e comprendere fonti di dati non umane, come quelle provenienti dai veicoli a guida autonoma e sequenze genomiche.
AI responsabile e sostenibilità etica: il ruolo cruciale delle misure di sicurezza
Nonostante l’entusiasmo per le potenzialità future, l’intelligenza artificiale solleva anche preoccupazioni significative riguardo alla sicurezza e all’etica. Google ha messo in atto una serie di politiche per promuovere un’AI responsabile, cercando di bilanciare i progressi con la salvaguardia dell’umanità.
La disinformazione e il rischio di hacking sono tra i pericoli maggiori associati all’uso irresponsabile dell’AI, e per affrontare questi problemi, l’azienda ha adottato misure di sicurezza avanzate. Per costruire AI sicure, destinate soprattutto alla gestione di compiti ad alto rischio, Google sta ispirandosi agli standard di sicurezza sviluppati per i sistemi aerospaziali.
Le sfide principali riguardano fenomeni come le “allucinazioni” dei modelli AI: si verificano quando il sistema produce risposte errate o incoerenti. Da qui la necessità di continuare a perfezionare i modelli per prevenire tali problemi.
Secondo Dean e Shazeer, comunque, le misure adottate da Google promettono di ridurre questi rischi e massimizzare i benefici a lungo termine, in particolare nelle aree cruciali come l’istruzione e la sanità.
In un altro nostro articolo abbiamo cercato di spiegare perché dire che un giorno l’intelligenza artificiale supererà quella umana è intrinsecamente sbagliato. L’AI può imitare l’intelligenza umana, approssimarla, può eventualmente “pensare” e “agire” (tra virgolette) in un modo che ricorda il comportamento di un essere umano.
Credit immagine in apertura: iStock.com – BlackJack3D