Google apre Gemini Pro agli sviluppatori, costerà meno di GPT-4

Dalle ultime ore della giornata di ieri la sezione di Gemini dedicata agli sviluppatori è ufficialmente aperta, parte la sfida a GPT-4.
Google apre Gemini Pro agli sviluppatori, costerà meno di GPT-4

Sono passati pochi giorni da quando Google ha annunciato il suo nuovo LLM Gemini, basato sull’intelligenza artificiale e pronto a sfidare altre realtà come ad esempio ChatGPT. L’azienda subito dopo ha iniziato a implementare l’IA all’interno dei suoi tanti prodotti, aprendo una nuova era.

Come si aspettavano soprattutto gli utenti più esperti, è arrivato il momento: Google consente adesso a tutti di smanettare con Gemini. Il colosso di Mountain View infatti ha annunciato durante la serata di ieri che sviluppatori ed aziende possono ora iniziare a utilizzare la versione Pro di Gemini in modo da addestrarlo costruendo soluzioni utili per i loro casi di utilizzo specifici.

Secondo quanto riferito, Gemini Pro è attualmente in grado di acquisire (input) e produrre testo (output), mentre Gemini Pro Vision sarà in grado di accettare testo e immagini ma produrrà solo testo.

Saranno ben 38 le lingue supportate, tra le quali ci sarà l’italiani, l’inglese, l’arabo, il francese, lo spagnolo e molte altre, e ben 180 i paesi in cui sarà disponibile. Le prossime settimane saranno importantissime, così come i prossimi mesi in quanto Google perfezionerà il suo “prodotto” in base ai feedback degli utenti.

Gemini Pro è aperto: ora gli sviluppatori possono divertirsi

La prima versione di Gemini Pro è finalmente disponibile ed accessibile mediante l’API Gemini. Le caratteristiche che presenta sono molteplici; innanzitutto riesce ad ottenere dei benchmark di ricerca superiori rispetto ad altri LLM simili, ma la cosa più importante è che entro alcuni limiti il prezzo è gratuito. Ovviamente superati i suddetti limiti, ci sarà un prezzo, che però sarà molto competitivo, addirittura migliore rispetto a GPT-4.

Sono diverse le funzionalità di cui Gemini Pro è dotato, come function calling, recupero semantico, embeddinbg, custom knowledge grounding e funzioni relative all’attività di chat. Non mancheranno le SDK, utili per creare app da poter eseguire ovunque, così come non mancherà il supporto per JavaScript, Android, Node.js, Python e Swift.

Ti consigliamo anche

Link copiato negli appunti