Nelle scorse ore tante testate online hanno fatto letteralmente a gara per descrivere la potenziale minaccia rappresentata dal progetto OpenAI Q* (si pronuncia Q-Star).
Secondo “fonti ben informate”, lo sviluppo del progetto Q* sarebbe la “pietra dello scandalo” che ha indotto il precedente consiglio di amministrazione di OpenAI a mettere alla porta lo storico CEO Sam Altman, successivamente reintegrato a valle della pressione esercitata da Microsoft e dal suo amministratore delegato Satya Nadella.
Cos’è il progetto Q* o Q-Star di OpenAI
Già quando parlavamo del possibile arrivo di una nuova potenziata versione del modello generativo di OpenAI, GPT-5, abbiamo osservato che l’intento dell’azienda, nel medio-lungo periodo, era quello di sviluppare una Artificial General Intelligence (AGI). Con AGI si fa riferimento a un tipo di intelligenza artificiale in grado di comprendere, apprendere e applicare conoscenze in modo simile a un essere umano. A differenza di molti sistemi di intelligenza artificiale specializzati che eseguono compiti specifici, una AGI dovrebbe avere la capacità di affrontare una vasta gamma di compiti complessi in modo autonomo, senza essere limitata a un singolo dominio di competenza.
L’obiettivo di un’AGI è quello di replicare l’ampiezza e la flessibilità dell’intelligenza umana, manifestando la capacità di adattarsi a nuove situazioni, apprendere da esperienze diverse e applicare la conoscenza sviluppata su molteplici contesti.
L’idea dell’AGI solleva questioni etiche e di sicurezza, poiché un’intelligenza così avanzata potrebbe avere impatti significativi sulla società nella sua interezza.
OpenAI non sarà più la stessa
Tra le varie motivazioni che avrebbero portato al licenziamento di Sam Altman vi sarebbe un pesante conflitto ideologico tra il CEO e il consiglio di OpenAI riguardo alla velocità dello sviluppo tecnologico all’interno dell’azienda. E il progetto Q-Star è presentato proprio come la “goccia che avrebbe fatto traboccare il vaso”.
Certo è che OpenAI è nata come un’organizzazione senza scopo di lucro (e lo è ancor oggi): il modello è stato scelto con l’intento di dare priorità alla missione di perseguire il bene pubblico rispetto alle esigenze di “fare cassa”. Tuttavia, cosa confermata anche dalla “settimana di follia” che ha appena vissuto OpenAI, l’etica è palesemente entrata in conflitto con gli interessi economici degli investitori, con il prevalere degli interessi finanziari.
Ecco perché OpenAI non sarà più la stessa: non lo è già. È ormai una realtà spiccatamente orientata a soddisfare gli appetiti degli investitori. Ed è difficile pensare che possa essere qualcosa di diverso.
Il nostro forte scetticismo su Q-Star
Si sprecano le “dettagliate analisi” che descrivono Q* come una sorta di “Morte Nera” che ci annienterà tutti. Il problema della sicurezza e dell’etica nello sviluppo delle intelligenze artificiali è senza dubbio centrale ma è essenziale restare con i piedi saldamente ancorati a terra.
Q* è presentata come un’AGI in grado di risolvere alcuni problemi matematici in modo deterministico. Oggi sarebbe in grado di eseguire calcoli come un bambino della scuola elementare ma in futuro le sue abilità potrebbero crescere a dismisura.
Calma. Come abbiamo più volte evidenziato, gli attuali modelli generativi si basano su un approccio stocastico. La loro capacità di generare output non è completamente determinata da un insieme fisso di parametri o da condizioni iniziali. Al contrario, questi modelli introducono elementi probabilistici nel processo di generazione, rendendo l’output variabile anche quando le condizioni iniziali sono le stesse. Si tratta di uno schema vincente perché introduce diversità e variabilità nei risultati generati, rendendo il modello più flessibile e in grado di produrre output più ricchi e realistici.
I modelli generativi stocastici si basano, come sappiamo, su tecniche di apprendimento automatico come reti neurali generative (GAN), reti neurali ricorrenti (RNN) o modelli di linguaggio probabilistici. Questi modelli definiscono una distribuzione delle probabilità sui dati di addestramento e utilizzano questa distribuzione per generare nuovi dati che assomigliano a quelli di addestramento. Nell’articolo dedicato a come programmare con ChatGPT, abbiamo spiegato perché questi modelli sono battezzati come “pappagalli stocastici“.
Differenze tra approccio deterministico e stocastico
L’approccio deterministico si basa su regole fisse e condizioni iniziali per produrre risultati ripetibili e prevedibili. In un contesto deterministico, il risultato di un processo è completamente determinato dalla configurazione iniziale e dalle regole che guidano il processo. Lo schema in questione è utilizzato quando è essenziale ottenere risultati coerenti e facilmente interpretabili, specialmente in contesti in cui la chiarezza e la riproducibilità sono prioritari.
Di contro, l’approccio stocastico si basa sulla ricchezza dei dati e sfrutta l’elemento di casualità o probabilità per introdurre variabilità nei risultati. Utilizzando distribuzioni di probabilità e tecniche di campionamento casuale, i modelli stocastici possono generare una vasta gamma di risultati, rendendo possibile la produzione di output più variegati e realistici. Questo è particolarmente utile quando si tratta di affrontare la complessità e la diversità del mondo reale. Nei contesti creativi, come la generazione di testo, immagini o suoni, l’approccio stocastico può quindi produrre risultati creativi e originali.
Usando l’approccio stocastico nelle moderne intelligenze artificiali, non si scarta nulla. Lo scarto di un modello deterministico diventa peculiarità. Il dato, di qualunque genere esso sia, aumenta così automaticamente di valore. Più dati si passano all’algoritmo, più informazioni si possono derivare e più contenuti di valore si possono automaticamente produrre.
La cultura del dato svolge un ruolo centrale
Un’intelligenza artificiale può essere certamente progettata per svolgere elaborazioni in modo deterministico anziché stocastico. Se si conoscono le condizioni iniziali e le regole, il risultato dell’elaborazione sarà sempre lo stesso. Nell’ambito dell’IA, un modello o un algoritmo che opera in modo deterministico produrrà lo stesso output per uno specifico input, indipendentemente da quante volte viene eseguito.
Se Q* implementasse qualcosa di simile sarebbe certamente un eccellente esercizio di stile ma sarebbe privo dei vantaggi che ha messo sotto gli occhi di tutti l’approccio stocastico che tutti abbiamo imparato ad apprezzare.
Nella stragrande maggioranza delle situazioni del mondo reale, l’ambiente in cui un’IA si trova a operare è complesso e dinamico. Variabili impreviste, interazioni complesse e cambiamenti rapidi possono rendere difficile garantire un comportamento completamente deterministico. D’altra parte, come accade praticamente sempre, se i dati di input sono variabili o non controllabili, è molto difficile garantire che l’IA reagisca in modo deterministico. Ci sono poi problemi di rumore che possono rendere imperfetti alcuni input, ambiguità nelle specifiche, problemi nella gestione delle eccezioni e molto altro ancora.
Viceversa, l’ontologia di dati presente nei sistemi informatici che utilizziamo in azienda, in ufficio, a casa, è sempre più utile per creare strumenti AI-driven, proprio utilizzando un approccio stocastico, basato sulle relazioni probabilistiche che sussistono fra i vari dati. La bellezza dell’approccio stocastico affonda proprio le radici nella possibilità di estrarre informazioni di valore, ad esempio, da tutti i dati di un’azienda.
L’immagine in apertura è generata con Microsoft Bing Image Creator.