Il fine tuning rappresenta un passo avanti significativo nella personalizzazione dei modelli generativi. Grazie a questa funzionalità, gli sviluppatori possono addestrare un modello creato da altri soggetti servendosi dei propri dataset. È inoltre possibile adattare il modello per rispondere con una struttura e un tono specifici, oppure per seguire istruzioni complesse in un determinato dominio. OpenAI ha annunciato che il suo modello GPT-4o, portato di recente anche su ChatGPT, si apre da oggi al fine tuning: diventa possibile personalizzarne le prestazioni in base alle specifiche esigenze, beneficiando non solo di una maggiore efficacia, ma anche di una significativa riduzione dei costi di addestramento.
Un aspetto particolarmente interessante del fine tuning applicato ai Large Language Models (LLM) è l’aspetto legato all’efficienza: si possono ottenere risultati significativi anche con un numero limitato di esempi tratti dal dataset di addestramento. Questa flessibilità permette di adattare il modello a una vasta gamma di domini, migliorando notevolmente le prestazioni e avvantaggiandosi così di uno strumento potente per qualsiasi tipo di applicazione.
Come funziona il fine tuning di GPT-4o
I rappresentanti di OpenAI hanno annunciato il 20 agosto 2024 che il fine tuning di GPT-4o è disponibile in tutti i piani tariffari. Per iniziare, basta accedere alla dashboard di fine tuning, cliccare su Create in alto a destra, quindi selezionare “gpt-4o-2024-08-06” dal menu a tendina Base model.
Il costo per l’addestramento è pari a 25 dollari per un milione di token, mentre l’inferenza ha un costo di 3,75 dollari per milione di token in input e 15 dollari per milione di token in output.
OpenAI offre la possibilità di effettuare anche il fine tuning di GPT-4o mini, la versione del modello più compatta, basata su un numero inferiore di parametri. Fino al 23 settembre 2024, selezionando il modello GPT-4o mini si può beneficiare giornalmente di 2 milioni di token di addestramento gratuiti. Il modello, basato sulla versione “gpt-4o-mini-2024-07-18” rappresenta un’opzione più leggera e accessibile per chi desidera esplorare le potenzialità del fine tuning a costi ridotti.
Sicurezza e privacy dei dati
Un aspetto cruciale della procedura di fine tuning, è la gestione della sicurezza e della privacy dei dati. OpenAI garantisce che i modelli fine tuned rimangano completamente sotto il controllo dell’utente, con piena proprietà dei dati aziendali, inclusi tutti gli input e gli output. L’azienda guidata da Sam Altman garantisce i dati conferiti non saranno mai condivisi o utilizzati per addestrare altri modelli.
Per prevenire l’uso improprio dei modelli, OpenAI ha implementato una serie di filtri multilivello. Tra questi, vi è la continua esecuzione di valutazioni di sicurezza automatizzate sui modelli fine tuned e il monitoraggio costante del loro utilizzo, al fine di garantire che le applicazioni si attengano alle politiche di utilizzo.
Conclusioni
Il lancio della modalità di fine tuning per GPT-4o rappresenta una svolta significativa per gli sviluppatori, offrendo nuovi strumenti per personalizzare e ottimizzare le prestazioni del modello in base alle specifiche esigenze.
Che si tratti di migliorare la scrittura creativa, l’ingegneria del software o altre applicazioni complesse, il fine tuning consente di sbloccare un enorme potenziale, per ottenere risultati di alto livello.
OpenAI continua a investire nell’espansione delle opzioni di personalizzazione dei modelli, con l’obiettivo di supportare gli sviluppatori nella creazione di soluzioni innovative.
L’immagine in apertura è generata con GPT-4o