Nel giorno in cui il SAG-AFTRA avvia un nuovo sciopero, questa volta per l’impiego indiscriminato dell’intelligenza artificiale nell’industria videoludica, arriva un importante aggiornamento da parte di Apple. Il colosso di Cupertino ha annunciato di essersi unita alle altre big della tecnologia come OpenAI, Amazon, Google, Meta e Microsoft nell’accettare una serie di regole volontarie proposte dall’amministrazione Biden e relative ad un uso più sicuro dell’AI.
Apple vuole contribuire allo sviluppo di tecnologie AI sicure e affidabili
La cooperazione con il governo USA arriva a pochi mesi di distanza dal debutto della suite Apple Intelligence, presentata durante la WWDC24 di giugno ma ancora assente nelle beta dei major update. A tal proposito, la società californiana ha promesso che alcune di queste funzionalità saranno presto disponibili anche nelle versioni beta di iOS 18, iPadOS 18 e macOS Sequoia. Forse dopo l’evento a porte chiuse organizzato per agosto.
Per quanto riguarda le misure di sicurezza proposte dal governo statunitense, queste spingono le aziende a testare il comportamento dei propri sistemi di intelligenza artificiale, così da potersi assicurare che non mostrino tendenze discriminatorie e non possano rappresentare una minaccia per la sicurezza nazionale. Le aziende sono poi invitate a condividere i risultati di questi test sia con i governi che con il mondo accademico. Con un tale livello di trasparenza, infatti, si presume sia possibile promuovere uno sviluppo di tecnologie AI più sicure e affidabili.
Ma perché si parla di “regole volontarie”? Il Congresso deve ancora approvare una legge per la regolamentazione dell’intelligenza artificiale, di conseguenza le linee guida della Casa Bianca sull’AI non sono applicabili per legge. Insomma, i sopracitati colossi tecnologici le stanno volontariamente accettando in buona fede.
La suite Apple Intelligence sarà disponibile questo autunno, ma i paesi dell’Unione Europea dovranno attendere più del previsto. Il DMA, per la società di Cupertino, rappresenterebbe un ostacolo.