Negli ultimi mesi si è registrata una corsa continua verso lo sviluppo e l’addestramento di nuovi modelli generativi, basati su un numero sempre più esteso di parametri. Sam Altman ha voluto calmare i “bollenti spiriti” affermando che non vi è alcuna intenzione di rilasciare un OpenAI GPT-5 nel breve termine.
Altman, CEO dell’azienda impegnata nella ricerca e nello sviluppo di soluzioni innovative nel campo dell’intelligenza artificiale, ha affermato che gli ingegneri e i tecnici stanno al momento lavorando su nuove idee ma non sono neanche lontanamente vicini all’avvio delle attività su GPT-5. “Quando abbiamo terminato GPT-4, inoltre, ci sono voluti più di sei mesi prima che fossimo pronti per rilasciarlo“, ha aggiunto.
OpenAI GPT-5 non esiste, almeno nella forma che ci aspettiamo
Tempi lunghi, insomma, per pensare all’arrivo di un futuro GPT-5 che, però, secondo varie fonti, starebbe già maturando sotto forma di altri progetti. Che andrebbero poi in futuro a comporre il puzzle definitivo.
A maggio scorso abbiamo descritto cos’è GPT-5 e quando potrebbe arrivare sul mercato. Abbiamo detto che il nuovo modello generativo, anziché puntare su un numero di parametri ancora più elevato, potrebbe presentare una serie di elementi innovativi rispetto al passato. Estremizzerà l’approccio multimodale combinando più “canali sensoriali” o tipi di dati. Ciò significa che oltre al testo, il modello gestirà sia in input che in output anche immagini, audio, video e così via. Offrendo così la percezione di una conoscenza a tutto tondo che riesce a mettere in correlazione diretta risorse completamente differenti per tipologia.
La sensazione è che la priorità di Altman sia adesso quella di creare fiducia intorno a OpenAI coinvolgendo i legislatori e collaborando con le autorità di regolamentazione. Ricorderete certamente l’esortazione del CEO a prendere provvedimenti normativi al fine di mettere dei paletti contro eventuali abusi nell’utilizzo delle intelligenze artificiali. E ricorderete l’ipotesi di abbandono del mercato europeo da parte di OpenAI in assenza di regolamenti adeguati.
Non si parla di GPT-5 per calmare le preoccupazioni
Insomma, OpenAI viene descritta dai suoi vertici come un’azienda che ha al primo posto l’utilizzo responsabile dell’intelligenza artificiale e che desidera scongiurare qualunque uso improprio, anche non intenzionale. Per questo, forse, non è tempo per parlare di GPT-5. Per il momento.
D’altra parte, a fine marzo 2023, è apparsa in rete una lettera aperta sottoscritta da 1.100 firmatari, tra cui anche Elon Musk e Steve Wozniak, che esortava a sospendere l’addestramento dei modelli generativi più potenti di GPT-4. Il tutto per un periodo non inferiore a 6 mesi. “L’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Questo non sta avvenendo“, si legge.
Nella lettera aperta si osserva che dovrebbero essere evitati modelli simili a “black-box” sempre più grandi e imprevedibili. Viceversa, le aziende impegnate nello sviluppo di modelli generativi dovrebbero fare una pausa e per implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti.
Commentando il contenuto della lettera, Altman aveva fatto presente che – purtroppo – mancavano molti dei dettagli tecnici sui quali era auspicato un intervento diretto. Non solo. Nella presa di posizione di queste ore, il numero uno di OpenAI ha respinto le preoccupazioni manifestate nella lettera aperta, affermando come la sua startup stia già valutando i potenziali pericoli con misure significative. Altman fa riferimento ad audit esterni, red teaming (un gruppo di specialisti esterni si occupa di mettere alla prova la sicurezza e l’efficacia delle difese esistenti) e test di sicurezza.
Parametri e dati di addestramento
I parametri utilizzati dai modelli generativi sono le variabili interne che il modello acquisisce durante il processo di addestramento. Questi parametri rappresentano i pesi e i bias delle connessioni neurali all’interno del modello e determinano come vengono elaborati i dati di input e generati gli output. Con il termine bias si fa riferimento a un’asimmetria o a una “preferenza sistematica” che il modello può avere nell’elaborazione dei dati e nel fornire risposte.
Nel caso dei modelli GPT di OpenAI, i parametri sono formati utilizzando una vasta quantità di dati di input. Durante l’addestramento, il modello cerca di apprendere i pattern, le relazioni e le caratteristiche dei dati forniti in ingresso così da generare informazioni coerenti, pertinenti e il più possibile realistiche partendo dal quesito (prompt) posto dall’utente. Il modello è quindi probabilistico e non certo deterministico, come abbiamo visto nell’articolo sui consigli per programmare con ChatGPT.
Il modello GPT-4 si ritiene sia composto da qualcosa come 1.000 miliardi di parametri, ben 6 volte il numero di parametri che contraddistinguevano il precedente modello GPT-3. La dimensione dei dati di addestramento influenza il numero di parametri del modello ma è evidentemente essenziale anche la qualità dei dati forniti durante la fase di training.
Anche su questo punto, Altman dichiarò ad aprile 2023 che l’era dei modelli generativi di grandi dimensioni è finita. La potenza dei modelli, quindi, non dovrebbe arrivare in futuro dall’incremento del numero di parametri ma, come spiegato in precedenza, dall’arricchimento con tutta una serie di abilità accessorie. Per guardare evidentemente al concetto di AGI (Artificial General Intelligence), un’intelligenza artificiale che è in grado di “comprendere”, “apprendere” e svolgere una vasta gamma di attività con processi che ricordano ancora più da vicino quelli svolti dagli esseri umani.