I principali player alle prese con la progettazione, lo sviluppo e la continua evoluzione dei modelli per l’intelligenza artificiale generativa, offrono anche strumenti per produrre codice di programmazione nei vari linguaggi. GitHub Copilot Workspace, ad esempio, è una piattaforma che ambisce a occuparsi dell’intero ciclo di vita di un software, consentendo agli sviluppatori di concentrarsi su ciò che conta e snellendo le attività più “ordinarie”.
I francesi di Mistral AI hanno appena svelato Codestral, il loro primo modello generativo congegnato espressamente per velocizzare e migliorare le attività di sviluppo software.
Sviluppo software migliorato grazie a Mistral Codestral: cos’è e come funziona
Fondata da un gruppo di ex dipendenti Meta e Google DeepMind, Mistral AI è una startup che fino ad oggi ha cercato di puntare sullo sviluppo e sul rilascio di modelli aperti. Ad aprile 2024, la società aveva sorpreso tutti con il lancio del suo modello 8x22B MoE, capace di utilizzare fino a 176 miliardi di parametri.
Il nuovo Codestral è pensato per supportare i programmatori nello sviluppo di applicazioni avanzate, rendendo più efficiente e sicuro il processo di scrittura del codice. Il modello è stato addestrato su un ampio dataset che copre oltre 80 linguaggi di programmazione, inclusi i più popolari come Python, Java, C, C++, JavaScript, ma anche linguaggi più specifici come Swift e Fortran. Questa vasta “base linguistica” consente a Codestral di assistere gli sviluppatori in una varietà di ambienti e progetti di codifica, rendendolo uno strumento versatile e potente per i professionisti.
Funzionalità avanzate di completamento del codice
Una delle caratteristiche principali di Codestral è la sua capacità di completare il codice, anche parzialmente. Questo schema non solo aiuta gli sviluppatori a migliorare le loro competenze in fatto di codifica, ma riduce anche il rischio di errori e l’introduzione di bug. Codestral può inoltre rispondere a domande specifiche sul codice, in modo da semplificarne la comprensione “a colpo d’occhio”. Anche quando ci si trovasse dinanzi a porzioni di codice non commentate e poco ordinate.
La dimensione della finestra di contesto di Codestral è pari a ben 32.000 token, un valore che pone l’innovativo modello di Mistral AI ai vertici tra le moderne soluzioni di coding basate sull’intelligenza artificiale generativa.
La finestra di contesto (context window) si riferisce al numero massimo di token che il modello può elaborare contemporaneamente in una singola sessione. Un token può essere una parola, una parte di una parola o un simbolo. Il dato relativo alle dimensioni della finestra di contesto definisce la quantità di informazioni che il modello può considerare mentre genera o completa il codice. Ne abbiamo parlato nell’articolo incentrato sul funzionamento dei LLM (Large Language Model).
Codestral riesce a gestire grandi quantità di informazioni in un’unica sessione, migliorando l’efficienza e la precisione del modello nel “comprendere” e generare codice.
Restrizioni sull’uso commerciale
Da qualche tempo a questa parte, a dispetto delle dichiarazioni iniziali, Mistral AI sta un po’ mettendo in discussione il concetto di “apertura” dei modelli generativi. Sebbene la startup, infatti, descriva Codestral come un modello “aperto”, il suo utilizzo così come l’uso dei risultati prodotti (leggasi, porzioni di codice) è vietato per qualsiasi attività commerciale.
Le condizioni di licenza, inoltre, impediscono qualsiasi uso di Codestral da parte dei dipendenti nel contesto di attività aziendali, quindi anche a uso interno. La severa restrizione posta da Mistral AI potrebbe derivare dal fatto che Codestral sia stato parzialmente addestrato servendosi di contenuti protetti da copyright.