Anthropic, compagnia che ha realizzato il modello di Intelligenza Artificiale noto come Claude, ha stretto un accordo per risolvere una causa per violazione del copyright attuata da alcuni editori musicali.
Nella giornata di ieri, l’azienda ha firmato un accordo in cui si impegna ad applicare protezione adeguate per quanto riguarda la formazione di futuri modelli AI, senza violare i diritti d’autore attingendo ai testi delle canzoni. Gli editori musicali hanno inoltre richiesto un sistema che consenta di intervenire in modo più rapido e diretto se ciò dovrebbe comunque verificarsi.
L’azione legale appena citata è stata avviata nell’ottobre 2023, quando alcune etichette come Universal Music Group, ABKCO, Concord Music Group e Greg Nelson Music hanno accusato Anthropic di aver addestrato il suo sistema AI con testi di almeno 500 canzoni.
Editori musicali, Anthropic e l’addestramento di Claude: il rapporto tra AI e diritti d’autore non è semplice
Secondo la denuncia, Anthropic avrebbe consapevolmente alterato o rimosso informazioni sulla gestione del copyright nel momenti in cui ha addestrato l’AI con il testo dei brani. Come da accordo, le etichette l’azienda si impegnano a lavorare insieme e in buona fede per evitare ulteriori casi simili.
Anthropic, durante una dichiarazione al sito The Hollywood Reporter si è difesa dalle accuse spiegando come Claude non è progettato per violare il copyright e come il modello possa contare su diversi processi e controlli appositi per evitare violazioni. La compagnia ha spiegato come l’accordo con gli editori è solo la conseguenza di tale volontà.
L’azione legale delle etichette contro Anthropic non è che uno dei tanti casi in cui l’AI è stata accusata di aggirare i diritti d’autore. Il caso più noto è quello che vede contrapposti il New York Times a Google e OpenAI. Nel corso dei mesi passati sono decine, tra singoli individui e aziende, ad aver segnalato potenziali comportamenti scorretti o comunque al limite della correttezza da parte di chi gestisce i modelli AI.