Mercury Coder, modello AI a diffusione che ridefinisce la generazione di codice

Mercury Coder, un modello AI sviluppato da Inception Labs, sta portando innovazioni significative nel campo della generazione del codice di programmazione. A differenza dei modelli tradizionali fa leva su una generazione a diffusione, migliorando notevolmente la velocità di generazione.

Ultimamente si parla sempre più spesso degli utilizzi dei modelli generativi per la generazione di codice di programmazione. GitHub Copilot ha introdotto la cosiddetta Modalità Agente, con il chatbot che “prende il controllo” diretto di un progetto software, lo sviluppa, lo integra, risolve i bug e aiuta il programmatore a essere più produttivo. Gemini Code Assist, d’altra parte, democratizza lo sviluppo software offrendo a tutti, a costo zero, fino a 180.000 autocompletamenti al mese. Un’infinità! Sullo sfondo OpenAI che con il test SWE-Lancer dimostra come i modelli AI debbano ancora crescere tanto in termini di efficacia sul versante della programmazione. Un outsider che si presenta foriero di innovazioni di primo piano è Mercury Coder, un modello di linguaggio sviluppato da Inception Labs.

Un salto di qualità nelle prestazioni AI per la generazione di codice con Mercury Coder

La generazione di codice assistita dall’intelligenza artificiale ha finora seguito un approccio sequenziale, con la creazione di un token alla volta da sinistra verso destra. Questo metodo, utilizzato da modelli come GPT-4, Claude 3.x e Gemini, limita la velocità di generazione poiché ogni nuovo token dipende dalla creazione del precedente.

Mercury Coder, invece, adotta un approccio di generazione a diffusione noto come “coarse-to-fine“, traducibile in italiano “da grossolano a fine“. Invece di costruire il testo in modo sequenziale, il modello parte da una distribuzione di puro rumore e raffina progressivamente il risultato attraverso fasi di denoising, un principio già sperimentato con successo nei modelli per immagini e video come Stable Diffusion e Midjourney. Ne parliamo nell’articolo sull’intelligenza artificiale spiegata facile.

Test sul campo: velocità e qualità

Mercury Coder è attualmente accessibile tramite la piattaforma di Inception Labs e su Hugging Face. Durante i test, il modello ha evidenziato abilità impressionanti nella generazione del codice di programmazione.

Nei vari benchmark, Mercury Coder ha ottenuto risultati paragonabili ai modelli di punta, pur offrendo un throughput in termini di token per secondo nettamente superiore rispetto a Claude 3.5 Haiku, GPT-4o Mini e Gemini 2.0 Flash-Lite.

Un nuovo paradigma per l’AI generativa?

L’entusiasmo della comunità di ricerca è palpabile. L’esperto di AI Simon Willison ha dichiarato:

Adoro il fatto che i ricercatori stiano sperimentando architetture alternative ai Transformer. È un’ulteriore dimostrazione di quanto ancora ci sia da esplorare nel campo dei LLM (Large Language Models).

Anche Andrej Karpathy, ex ricercatore di OpenAI, ha sottolineato il potenziale del modello, affermando:

Questo modello ha il potenziale per essere diverso, e forse mostrare un approccio nuovo e unico, o nuovi punti di forza e debolezza. Incoraggio le persone a provarlo.

Se la diffusione testuale riuscirà a mantenere alta la qualità delle generazioni migliorando al contempo la velocità, potrebbe rappresentare una svolta per il futuro dei modelli linguistici, aprendo la strada a un nuovo paradigma di AI generativa.

Credit immagine in apertura: iStock.com – Chainarong Prasertthai

Ti consigliamo anche

Link copiato negli appunti