Poche ore fa Meta ha annunciato il suo nuovo modello linguistico open source Llama 3.1.
Questo sarà disponibile in tre versioni che si diversificano in base al numero di parametri che possono analizzare, ovvero 8B, 70B e 405B. L’ultimo dei tre è di fatto la più grande IA open source mai realizzata fino a oggi. Lo stesso CEO di Meta, Mark Zuckerberg, descrive Llama 3.1 come “Il primo modello di intelligenza artificiale open source di frontiera“.
Per Zuckerberg, infatti, Llama 2 è paragonabile alla vecchia generazione di large language models (LLM) mentre Llama 3.1 può competere (e avere la meglio) con qualunque altro tipo di piattaforma simile attualmente sul mercato. Non solo: il creatore di Facebook prevede che questo LLM costituirà una base solida per i futuri modelli Llama.
Con Llama 3.1 Meta lancia la sfida a OpenAI, Google e Anthropic
Llama 3.1 è stato addestrato con ben 15 trilioni di token, utilizzando 16.000 GPU H100. Il risultato è un modello molto più ampio rispetto a Llama 3, con capacità enormemente superiori.
A livello pratico, il nuovo modello dovrebbe competere con le tante piattaforme closed source oggi presenti sul mercato (GPT-4o di OpenAI, Gemini 1.5 di Google e Claude 3.5 di Anthropic), arrivando a pareggiare (se non superare) le stesse per quanto riguarda conoscenze generali, traduzioni multilingue, capacità matematiche e non solo.
A rendere lo strumento ancora più allettante per gli utenti è la lunghezza dei prompt, che potranno raggiungere i 128.000 token. Di fatto, è possibile interagire con l’IA fornendo contesto aggiuntivo pari a un intero libro. Come confermato da Meta, il nuovo modello supporterà 8 lingue al momento del lancio e sarà consentito agli sviluppatori utilizzare gli output ottenuti per addestrare altri modelli.
Essendo open source, Llama 3.1 sarà disponibile su tutti i più diffusi servizi cloud come AWS, Google Cloud e Azure.