Pochi giorni fa Google e Microsoft hanno promesso alla Casa Bianca una IA responsabile, ovvero la garanzia di fornire soluzioni affidabili agli Stati Uniti in maniera tale da potenziare il Paese, l’industria e sviluppare in modo sicuro, protetto e trasparente tale tecnologia. Un impegno non da poco, che già sta trovando riscontro negli ultimi sforzi delle società più importanti del settore. Oggi, infatti, 27 luglio 2023, le quattro realtà di riferimento per le IA Anthropic, Google, Microsoft e OpenAI hanno annunciato la formazione del Frontier Model Forum, ente il cui obiettivo è osservare e garantire la realizzazione sicura dei modelli IA.
Nasce il Frontier Model Forum: i suoi obiettivi
Come annunciato con comunicati stampa ad hoc da OpenAI e Google, il Frontier Model Forum sfrutterà le “competenze tecniche e operative delle aziende associate a vantaggio dell’intero ecosistema di intelligenza artificiale” con l’intento di supportare le pratiche più lodevoli del settore, da standardizzare nell’ottica di rendere l’avvenire delle IA molto più sicuro.
Gli obiettivi chiave già fissati sono i seguenti:
- Proseguire nella ricerca per promuovere uno sviluppo responsabile dei modelli IA, minimizzando i rischi e consentendo valutazioni indipendenti
- Identificare le migliori pratiche per lo sviluppo responsabile, aiutando il pubblico a comprendere l’impatto dell’intelligenza artificiale, le sue capacità e limitazioni
- Collaborare con i policy makers, il mondo accademico, la società civile e le aziende per condividere le conoscenze sui rischi delle IA
- Sostenere lo sviluppo di applicazioni capaci di risolvere alcune delle sfide sociali più importanti, tra cui il cambiamento climatico e la diagnosi delle malattie gravi.
Le organizzazioni che vogliono entrare a fare parte del Frontier Model Forum dovranno dimostrare il loro impegno a perseguire gli stessi obiettivi con approcci tecnici e istituzionali ad hoc, unendosi alle quattro società fondatrici in impegni congiunti per lo sviluppo sicuro dell’IA.