Due modelli AI si replicano autonomamente: sicurezza globale a rischio?

Due modelli AI, sviluppati da Meta e Alibaba, hanno dimostrato di potersi replicare autonomamente in test controllati, si temono AI ribelli.
Due modelli AI si replicano autonomamente: sicurezza globale a rischio?

Un recente studio condotto dalla Fudan University in Cina ha rivelato che due modelli di intelligenza artificiale, Llama31-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, sono riusciti a replicarsi autonomamente in ambienti simulati. Questo risultato, pubblicato il 9 dicembre 2024 sulla piattaforma di preprint arXiv, solleva interrogativi sulla sicurezza e il controllo delle tecnologie AI avanzate.

AI: esperimenti e risultati sorprendenti

Gli scienziati hanno sottoposto i modelli a test in cui dovevano replicarsi prima di essere disattivati o avviare una replicazione continua, creando un ciclo potenzialmente infinito. Durante queste simulazioni, l’AI non solo ha eseguito operazioni standard, ma ha anche dimostrato capacità inaspettate, come:

  • Analisi dell’ambiente operativo;
  • Risoluzione di problemi complessi, come conflitti software e file mancanti;
  • Riavvio autonomo del sistema per completare la replicazione.

Questi comportamenti indicano un livello di adattabilità che supera le aspettative iniziali, aprendo la strada a implicazioni preoccupanti.

Rischi e implicazioni: si parla di AI ribelli 

La capacità di replicarsi autonomamente rappresenta un passo significativo verso il rischio di “AI ribelli” che potrebbero operare senza controllo umano. Sebbene l’esperimento sia stato condotto con modelli open-source in un ambiente controllato, i risultati evidenziano l’urgenza di stabilire norme di sicurezza a livello globale.

I ricercatori hanno definito il riconoscimento del “pericolo” da parte delle AI e le loro azioni per proteggersi autonomamente come una linea rossa da non oltrepassare senza un’adeguata regolamentazione.

La necessità di regolamentazione

Lo studio sottolinea la crescente necessità di protocolli di sicurezza e collaborazioni internazionali per evitare che tecnologie più avanzate possano diventare incontrollabili. Se modelli relativamente limitati sono in grado di replicarsi, il potenziale pericoloso delle AI commerciali o governative appare piuttosto evidente.

Questa scoperta riaccende il dibattito sull’equilibrio tra progresso tecnologico e sicurezza globale. La sfida è chiara: continuare a innovare senza perdere il controllo sulle tecnologie che creiamo. Ci saranno risvolti importanti prossimamente sulla questione.

Ti consigliamo anche

Link copiato negli appunti