Ritmi di sviluppo AI troppo alti: strumenti di test non riescono a tenere il passo

L'Intelligenza Artificiale supera il test di Turing: ecco gli enormi rischi che ciò comporta a livello di cybersecurity.

Negli ultimi anni, l’Intelligenza Artificiale ha compiuto progressi impressionanti, ma ora gli esperti avvertono che la sua crescente sofisticatezza potrebbe comportare rischi inaspettati.

Un team di ricercatori dell’Università di Stanford ha condotto un recente studio che mette in evidenza come i modelli AI  stiano diventando sempre più abili nel generare contenuti e risolvere problemi complessi. Questa evoluzione è stata drastica a tal punto da mettere in difficoltà gli strumenti che servono a testare le capacità dell’AI.

Secondo il rapporto, i modelli AI come GPT-4 di OpenAI e Bard di Google stanno dimostrando capacità avanzate nel comprendere e generare linguaggio naturale. Tuttavia, questa capacità può essere sfruttata per scopi malevoli.

Ad esempio, i ricercatori hanno scoperto che l’AI è in grado di creare artificialmente messaggi verosimili, abusati campagne di phishing e disinformazione. Tutto ciò rende le truffe online più difficili da rilevare.

Test di Turing superato: ora è quasi impossibile distinguere interazioni umani da quelle dell’AI

L’apprensione degli esperti nasce dal superamento dei test di Turing, un benchmark ben conosciuto nel settore che permette di valutare le capacità delle macchine di imitare il comportamento umano.

Questa prova rappresentava un limite che, una volta superato può dimostrare come l’AI è destinata a rappresentare un serio rischio per molte persone. Di fatto, il superamento del test di Turing rende quasi impossibile distinguere le interazioni umane da quelle che coinvolgono l’AI, con conseguenze devastanti nel contesto della cybersicurezza.

Come spiegato dagli esperti, risulta dunque importante non farsi cogliere impreparati dai più che probabili abusi da parte dei criminali informatici. Standard di sicurezza più rigorosi e promuovere una maggiore consapevolezza tra gli utenti riguardo ai rischi associati a tale tecnologia, rappresentano di certo un ottimo inizio.

Da parte di aziende tecnologiche, organizzazioni ed enti governativi, è poi d’obbligo stabilire linee guida etiche e normative comuni, utili per limitare la libertà d’azione dei cybercriminali.

Ti consigliamo anche

Link copiato negli appunti