Schneier: Microsoft spia gli utenti con l'intelligenza artificiale

Il noto crittografo Bruce Schneier osserva che per comporre un'analisi così dettagliata, come quella presentata da Microsoft, l'azienda deve attivamente monitorare le chat degli utenti con i suoi prodotti basati sull'IA. Ed è quello che secondo l'esperto l'azienda di Redmond ha ammesso di fare.

È un “j’accuse” netto quello che Bruce Schneier, noto crittografato di fama mondiale, lancia nei confronti di Microsoft. Secondo Schneier, che ha brevemente illustrato il suo punto di vista usando le pagine del blog personale, l’azienda di Redmond avrebbe posto in essere una stretta attività di controllo sulle attività poste in essere usando i suoi strumenti di intelligenza artificiale per la generazione di contenuti.

Microsoft ha annunciato di aver individuato hacker cinesi, russi e iraniani che utilizzano attivamente i suoi strumenti basati sull’IA per migliorare le loro abilità di hacking. Sappiamo, infatti, che l’azienda di Redmond mette a disposizione risorse per la generazione di codice di programmazione.

GitHub Copilot è stata una delle prime soluzioni a permettere la creazione di codice in qualsiasi linguaggio ed è oggi protagonista assoluta per la creazione della stragrande maggioranza di applicazioni poi pubblicate sulla piattaforma GitHub stessa. Le abilità di generazione di codice sono ovviamente alla base di Copilot e degli altri strumenti di IA targati Microsoft.

Schneier: solo con un’analisi dei prompt degli utenti e delle risposte loro fornite, Microsoft può avere il tipo di visibilità descritto

Il leggendario crittografo Schneier osserva che nel rapporto reso pubblico dall’azienda di Redmond si legge quanto segue: “OpenAI e Microsoft pubblicano oggi nuovi dettagli su come i criminali informatici utilizzino ed esplorino le possibilità offerte dai LLM nelle tecniche di attacco“.

I LLM (Large Language Models) rappresentano una classe di modelli di intelligenza artificiale addestrati su grandi quantità di testo per apprendere e comprendere il linguaggio naturale. L’obiettivo principale dei LLM è generare testo in modo coerente e significativo, per rispondere a quesiti, completare frasi o scrivere elaborati di varia lunghezza e complessità. Un esempio noto di LLM è GPT (Generative Pre-trained Transformer), sviluppato da OpenAI.

Nella sua lunga disamina, Microsoft osserva che hacker finanziati da alcuni enti governativi a livello mondiale, stanno utilizzando i LMM per potenziare le loro attività di aggressione. Ogni gruppo è citato con il nome scelto o loro assegnato: Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon e Salmon Typhoon.

Il commento di Schneier suggerisce che la conoscenza di Microsoft e OpenAI su queste attività di hacking sia appunto possibile solo con il monitoraggio delle sessioni di chat, attraverso il controllo di input e output del modello generativo. Anche se i termini di utilizzo del servizio consentono la raccolta di informazioni, Schneier si concentra sul livello di dettaglio del quale realtà come Microsoft e OpenAI possono beneficiare esaminando le informazioni condivise da parte degli utenti.

Da parte sua, Microsoft specifica che il fine dell’analisi dei dati delle chat è garantire l’uso sicuro e responsabile di tecnologie di IA come ChatGPT, mantenendo gli standard etici più elevati per proteggere la comunità da possibili abusi.

Per Microsoft, l’utilizzo dell’intelligenza artificiale nella cybersecurity è un fattore prioritario

Microsoft dichiara di esplorare il potenziale dell’IA per potenziare le misure di sicurezza, sbloccare protezioni nuove e avanzate, costruire software migliore. “Con l’IA, abbiamo il potere di adattarci alle minacce in evoluzione, rilevare anomalie istantaneamente, rispondere prontamente per neutralizzare i rischi e personalizzare le difese per le esigenze di un’organizzazione“, osserva l’azienda.

Secondo Microsoft, di fronte a una carenza globale di professionisti della sicurezza informatica, con circa 4 milioni di esperti necessari in tutto il mondo, l’IA ha il potenziale di essere uno strumento cruciale per colmare il divario di competenze e aiutare le attività normalmente svolte dai professionisti del settore. E parla di un prodotto come Copilot for Security, che può aiutare gli analisti della sicurezza, indipendentemente dal loro livello di competenza. I partecipanti al programma di test hanno evidenziato, proprio grazie a Copilot for Security, maggiore efficacia nel rilevamento e nella neutralizzazione delle minacce informatiche (+44%) oltre che un riscontro più rapido (+26%) nelle varie tipologie di incidenti presentatisi.

La stessa azienda guidata da Satya Nadella, afferma di rilevare una quantità di traffico malevolo davvero immensa su base giornaliera. I sistemi dell’azienda di Redmond riconoscono più di 65.000 milioni di segnali giornalieri relativi alla sicurezza informatica. L’IA sta potenziando la capacità di analizzare tali informazioni e assicurare che eventuali comportamenti anomali, sintomo di attacchi in corso, possano essere fatti emergere in maniera ancora più efficace e tempestiva.

Credit immagine in apertura: Microsoft.

Ti consigliamo anche

Link copiato negli appunti