I limiti morali dell’Intelligenza Artificiale sono un tema dibattuto e che, con tutta probabilità, farà discutere molto anche nei prossimi anni. OpenAI, però, sta cercando di fare più possibile chiarezza riguardo l’operato dei prodotti che offre in questo contesto.
La compagnia ha di recente condiviso la prima bozza di un documento che delinea come si comportano ChatGPT e gli altri modelli, spiegando gli schemi comportamentali e il meccanismo che si innesca una volta ricevuto l’input dell’utente.
Nello specifico, il testo va ad approfondire aspetti come tono e durata della risposta, ma affronta anche altri argomenti come le capacità di apprendimento dell’IA. Nel documento OpenAI suddivide tre principi alla base del comportamento dell’IA, ovvero gli obiettivi, le regole e il comportamento predefinito.
Il Model Spec, a detta di OpenAI, dovrebbe servire come una sorta di linea guida per chiunque lavori nel contesto della ricerca e della formazione di sistemi IA.
OpenAI con il suo Model Spec delinea le linee guide per un’IA con obiettivi e regole specifiche
La documentazione preparata da OpenAI ha anche un modulo con la possibilità, da parte di sviluppatori e addetti ai lavori, di fornire il proprio feedback su quanto riportato. Nelle intenzioni della compagnia vi è anche quella di sensibilizzare rispetto a questioni etiche e morali che, gradualmente, faranno sempre più parte del dibattito sull’IA.
Non è la prima volta che OpenAI dimostra una particolare sensibilità per quanto riguarda utenti e sviluppatori che operano in questa branca tecnologica in piena fase di sviluppo. La stessa compagnia, circa un mese fa, ha presentato strumenti specifici in grado di rendere la vita molto più facile a chi opera nel settore.
Al di là delle questioni morali, la compagnia di Sam Altman deve muoversi con una certa cautela anche a causa di diverse potenziali dispute legali, alcune persino con entità alquanto importanti come l’UE.