AGI, cos'è un'intelligenza artificiale generale e perché Musk dice che GPT-4 lo è già

Spieghiamo cos'è un'AGI, intelligenza artificiale generale, e perché questo concetto è al centro della vertenza legale avviata da Elon Musk nei confronti di OpenAI. Davvero AGI può rappresentare una minaccia per l'umanità e quanto siamo lontani dalla sua realizzazione?

Nelle accuse lanciate da Elon Musk nei confronti di OpenAI e della sua dirigenza, che hanno portato ad avviare una vera e propria vertenza legale, l’imprenditore – tra le altre cose – ha espresso le sue preoccupazioni sulla presunta “grave minaccia per l’umanità” che rappresenterebbe un’AGI e su come la società guidata da Sam Altman sia ormai diventata una “filiale di fatto a codice chiuso” di Microsoft. Ma cos’è un’AGI e perché, secondo Musk, il modello generativo GPT-4 – già ampiamente in uso presso OpenAI – si inquadrerebbe in questo tipo di IA?

Cos’è un’AGI, intelligenza artificiale generale

Esattamente un anno fa, OpenAI rilasciava GPT-4, più recente iterazione del suo modello generativo. Fu presentata come una vera e propria pietra miliare: vanta una finestra di contesto molto più ampia (fino a 32.000 token), presenta notevoli miglioramenti nella comprensione del linguaggio naturale e nella generazione di testo, grazie alla maggior numero di parametri e all’ampio set di dati di addestramento utilizzato; inoltre, è un modello multicanale, in grado di gestire in input e produrre (output) informazioni provenienti da diverse modalità, come le immagini.

AGI, acronimo di “Artificial General Intelligence” (Intelligenza Artificiale Generale), si riferisce a un tipo di intelligenza artificiale che possiede la capacità di comprendere, apprendere e applicare conoscenze in modo simile a un essere umano. A differenza delle IA specializzate, progettate per svolgere compiti specifici, un sistema AGI dovrebbe avere la capacità di affrontare una vasta gamma di attività cognitive in modo autonomo e flessibile.

Un’AGI sarebbe in grado di eseguire compiti intellettuali complessi, apprendere da esperienze diverse, adattarsi a nuovi contesti e svilupparsi in modo autonomo. Come suggerisce il nome, un’AGI ambisce a essere generalmente applicabile anziché limitata a una singola funzione o dominio.

D’altre parte, proprio ad aprile 2023, fu un team di ricerca Microsoft a parlare di “scintille di AGI” in un dettagliato documento tecnico incentrato proprio su GPT-4. Questo a conferma che il comportamento di GPT-4 mostrava già un anno fa i primi “bagliori” di un’AGI.

Il documento firmato Microsoft è diventato una delle principali leve utilizzate da Musk per avanzare le sue contestazioni e a sostegno della sua tesi.

Il team di ricerca di Microsoft rimase stupito da GPT-4 iniziando a parlare di AGI

Il gruppo di esperti guidato da Sébastien Bubeck, 38enne ex docente presso la Princeton University (USA), ha iniziato a testare una prima versione di GPT-4 nell’autunno del 2022, mesi prima che la tecnologia fosse rilasciata al pubblico. Microsoft aveva infatti investito 13 miliardi di dollari su OpenAI e i suoi esperti ottennero così l’accesso esclusivo, in anteprima, alle tecnologie sottostanti che alimentano i sistemi di intelligenza artificiale dell’azienda di Altman.

Leggendo il documento di taglio accademico, si apprende di come Bubeck e i suoi fossero rimasti meravigliati dei risultati forniti da GPT-4. Il modello è riuscito a comporre con successo una complessa dimostrazione matematica, ha generato un codice informatico in grado di disegnare un unicorno e ha spiegato il modo migliore per impilare una raccolta di articoli di diversa forma e caratteristiche. Il team Microsoft si chiese quindi se fossero davvero di fronte a una nuova forma di intelligenza artificiale.

D’altra parte, il documento di Microsoft è ad oggi citato in più di 1.500 lavori scientifici ed è uno dei documenti sull’intelligenza artificiale che hanno riscosso maggior successo negli ultimi 5 anni.

Ha però dovuto affrontare diverse critiche da parte di esperti, inclusi alcune provenienti da altri tecnici interni a Microsoft, preoccupati del fatto che il documento di 155 pagine mancasse di rigore e alimentasse una certa frenesia sull’intelligenza artificiale basata sul marketing. Inoltre, lo studio si basa sulle prime versioni di GPT-4, gelosamente custodite da Microsoft e OpenAI. Non essend usata la versione di GPT-4, poi rilasciata pubblicamente, nessun altro ha potuto replicare gli stessi esperimenti.

Siamo davvero di fronte a un’AGI?

Quando i ricercatori Microsoft hanno provveduto alla stesura del documento, hanno parlato chiaramente di un “primo contatto con un sistema AGI“. Alcuni membri del team, incluso Eric Horvitz, Microsoft chief scientist, egli stesso co-autore dello studio, non erano d’accordo con questa caratterizzazione. GPT-4, insomma, è ben lontano dal fare tutto ciò che il cervello umano può mettere in pratica.

Musk, invece, ribatte sulla sua tesi sostenendo che già GPT-4 rappresenterebbe una potenziale minaccia a causa della sua capacità di generare risposte avanzate e di apprendere in modo autonomo. Il CEO di Tesla e di altre società teme che sistemi come GPT-4 possano sfuggire al controllo umano e comportare rischi significativi per la società e la democrazia.

A novembre 2023, si è fatto un gran parlare di OpenAI Q* (Q-Star), un “progetto segreto” o quasi che mirava proprio alla creazione di un’AGI. Oggi, come allora, manifestiamo il nostro scetticismo. Tutte le IA fino ad oggi realizzate e davvero utilizzate per applicazioni pratica, anche in ambito commerciale, si basano su un approccio stocastico ovvero affondano le loro radici sui concetti di casualità e probabilità.

Realizzare intelligenze artificiali basate su un funzionamento deterministico (rispetto di regole fisse e condizioni iniziali al fine di produrre sempre dei risultati ripetibili e prevedibili) è al momento un puro esercizio di stile. Anche perché variabili impreviste, interazioni complesse e cambiamenti rapidi possono rendere difficile garantire un comportamento completamente deterministico dell’IA. Si pensi a dati in input che sono molto variabili o non controllabili: fare in modo che un’IA si comporti in modo deterministico è estremamente complesso, se non impossibile. Anche perché nell’approntare il sistema ci sono molteplici altri fattori da valutare che minano le fondamenta di un’IA deterministica.

AGI e cervello umano

Ma il funzionamento del cervello umano è deterministico? Quindi, come può un’AGI replicarlo davvero? I meccanismi alla base della mente umana sono ovviamente legati a doppio filo con l’attività cerebrale, spiegabile attraverso processi neurologici. Un approccio che supporti l’idea del funzionamento deterministico del cervello, presuppone che lo stato cerebrale influisca direttamente sullo stato mentale e sulle decisioni. Le sinapsi tra neuroni trasmettono segnali elettrici in modo deterministico, in base alle leggi della fisica. Si tratta di pattern, quindi, che sembrano seguire leggi deterministiche.

D’altra parte, ci sono anche aspetti probabilistici. Ad esempio, il rilascio di neurotrasmettitori può essere influenzato da vari fattori, e la plasticità sinaptica (la capacità delle sinapsi di cambiare la loro forza nel tempo) può essere influenzata da eventi casuali e stimoli ambientali.

Gli studi sull’argomento sono numerosi e complessi, anche perché chiamano in causa concetti filosofici, neuroscientifici e psicologici. In generale, comunque, accanto a un approccio deterministico, regolato dalle leggi del mondo fisico, c’è il cosiddetto libero arbitrio ovvero la possibilità di compiere scelte libere da parte di ogni singolo individuo.

OpenAI respinge tutte le accuse di Musk

Nel frattempo, i vertici di OpenAI si sono affrettati a confutare tutte le accuse di Musk. Probabilmente anche per rinfrancare il morale dei dipendenti dell’azienda.

Secondo Altman e i suoi, la causa intentata da Musk sarebbe figlia dei suoi “rimpianti” per aver lasciato OpenAI qualche anno fa. Jason Kwon (Chief Strategy Officer, CSO, OpenAI) fa presente che GPT-4 è molto lontano dall’essere un’AGI. Definendo un’AGI come un “sistema altamente autonomo ampiamente abile nel fornire nuove soluzioni capaci di affrontare sfide storiche” per l’intera umanità. “GPT-4 non è in grado di fare tutto questo“.

Kwon ha anche negato che OpenAI abbia abbandonato la sua missione di realizzare un’IA a beneficio dell’intera popolazione mondiale. Le API e i prodotti disponibili per tutti gli interessati, sono descritti come parti importanti della missione dell’azienda.

Per quanto riguarda i rapporti con Microsoft, il CSO di OpenAI ha affermato che spetta a lui e alle altre figure dirigenziali decidere il modo con cui l’azienda deve fare ricerca, evolvere ed essere gestita. La società di Redmond, inoltre, sarebbe a ben guardare un concorrente: ChatGPT e ChatGPT for Enterprise, ad esempio, erano concorrenti diretti di Copilot e Copilot per Microsoft 365. Non sentite un po’ di rumore di unghie sui vetri?

Credit immagine in apertura: iStock.com – Black_Kira

Ti consigliamo anche

Link copiato negli appunti