Siamo stati tra i primi a presentare, a suo tempo, il lavoro svolto dalla startup francese Mistral AI che, gradualmente, mira adesso ad imporsi come alternativa alle soluzioni OpenAI, Anthropic (fondata da ex dipendenti di OpenAI), Meta e Google. Almeno per ciò che riguarda i modelli generativi integrabili all’interno di applicazioni che devono poter sfruttare funzionalità di intelligenza artificiale avanzate.
Ai tempi del lancio del modello Mistral 7B, abbiamo indugiato sul fatto che si tratti di uno strumento open source nato dalla stretta collaborazione con il consorzio CINECA/EuroHPC. Gli ideatori di Mistral AI, infatti, avevano pubblicamente ringraziato gli operatori del supercomputer Leonardo, tutto italiano, per aver consentito loro di utilizzare le sue risorse ai fini dell’addestramento del modello.
L’attività di Mistral AI è nata insomma un po’ sotto l’ala dell’Europa. EuroHPC (European High Performance Computing) è un’iniziativa tecnologica congiunta nel settore del calcolo ad alte prestazioni che rappresenta il pilastro portante della strategia industriale dell’Unione Europea nel campo del supercomputing e dell’elaborazione dei dati.
Mistral Large, la grande scommessa di un modello generativo tutto europeo
Il nuovo LLM (Large Language Model) Mistral Large, appena svelato dalla società parigina, è progettato per rivaleggiare con altri modelli di alto livello della “concorrenza”, come GPT-4 e Claude 2.
Fondata da ex di DeepMind e Meta, Mistral AI si è inizialmente presentata come una realtà impegnata nelle soluzioni per l’intelligenza artificiale, con uno spiccato focus sull’aspetto open source. Insomma, come avrebbe dovuto essere OpenAI. Va detto, però, che sebbene il primo modello di Mistral AI sia disponibile con una licenza permissiva e la startup abbia condiviso l’accesso ai pesi del modello, lo stesso non si può dire per i modelli di più grandi dimensioni successivamente distribuiti.
Più passa il tempo e più il modello di business di Mistral AI somiglia sempre più a quello scelto da OpenAI. Anche il nuovo Mistral Large, ad esempio, può essere “interrogato” ricorrendo a un’API a pagamento con prezzi a consumo.
Al momento, gli sviluppatori interessati a far dialogare le rispettive applicazioni con Mistral Large, dovrebbero spendere 7,30 euro per milione di token in input e 22 euro per milione di token in output. Il numero di token in input e in output si riferisce, rispettivamente, al volume di parole o di unità di testo inviate a Mistral Large e a quelle ottenute dal modello come risultato dell’elaborazione.
Per impostazione predefinita, Mistral AI supporta finestre di contesto da 32.000 token (generalmente più di 20.000 parole) ed è compatibile con lingue quali italiano, inglese, francese, spagnolo e tedesco.
A titolo di confronto, OpenAI GPT-4 con una context window da 32.000 token costa attualmente 60 dollari per milione di token in input; 120 dollari per milione di token di output. Quindi, Mistral Large è attualmente da 5 a 7,5 volte più economico di GPT-4-32k.
Provate il nuovo chatbot basato su Mistral Large: ecco Le Chat
Disponibile anche in versione gratuita, Le Chat si presenta come un chatbot alternativo a ChatGPT e a diversi altri rivali che nel frattempo si sono ritagliati un’importante fetta di mercato.
Previo login su Le Chat, il chatbot Web utilizza per impostazione predefinita il nuovo modello generativo Mistral Large, come conferma il menu a tendina in alto a destra. In alternativa, si può scegliere l’uso di un modello più leggero e conciso nelle risposte oppure Next, che rappresenta un po’ il “laboratorio degli esperimenti” di Mistral AI. L’idea è quella di mettere comunque nelle mani degli utenti finali anche un prototipo di LLM (Large Language Model) che precorra i tempi e sacrificando un po’ di “precisione” permetta di ottenere risposte più creative.
Lo stesso Mistral Large è comunque indicato come in versione beta. È quindi lecito attendersi qualche comportamento anomalo. La società prevede inoltre di lanciare una versione a pagamento di Le Chat per i clienti aziendali. I clienti aziendali potranno definire anche meccanismi di moderazione personalizzati.
Fin dalla prima visita, Mistral AI informa gli utenti che le informazioni inviate al chatbot potranno essere riutilizzate per migliorare il comportamento del modello generativo.
Mistral AI annuncia anche una collaborazione con Microsoft
Quando si parla di intelligenza artificiale e modelli generativi, Microsoft è sempre “sintonizzata”. Oltre alla piattaforma API di Mistral, Microsoft fornirà i modelli Mistral ai suoi clienti Azure.
Di primo acchito, la collaborazione con Microsoft sembra ridursi all’aggiunta del nuovo modello Mistral Large. In realtà, Mistral AI e Microsoft stanno interloquendo con l’obiettivo di sviluppare nuove forme di collaborazione o, potenzialmente, altre iniziative.
Come abbiamo osservato anche in precedenza, Microsoft è il principale investitore di OpenAI. Ma ha accolto sotto la sua ala anche altri modelli di intelligenza artificiale, aggiungendoli alla sua piattaforma di cloud computing. Oltre che con OpenAI e, adesso, anche con Mistral, Microsoft ha sviluppato una cooperazione con Meta collaborano per offrire i modelli Llama su Azure.
Inutile dire che l’approccio aperto alle partnership in tema di intelligenza artificiale è un buon modo, per Microsoft, per mantenere gli utenti sulla piattaforma Azure e nel suo ecosistema di prodotti. Potrebbe anche essere utile in caso di verifiche in materia di antitrust da parte delle Autorità competenti.