Una figura come Richard Stallman ha bisogno di poche presentazioni. Classe 1953, programmatore, informatico e attivista statunitense, è noto per essere uno dei principali esponenti del movimento del software libero. La sua carriera iniziò al laboratorio di intelligenza artificiale del MIT, dove sviluppò l’editor di testi Emacs nel 1975. Nel settembre 1983 avviò il progetto GNU con l’obiettivo di creare un sistema operativo completamente libero da copyright: da allora ha sempre rivendicato l’importanza di riferirsi a Linux (a meno che non si parli esclusivamente del kernel) come GNU/Linux. In una sorta di lectio magistralis tenutasi a febbraio 2025 presso il Politecnico di Torino, Stallman ha parlato di intelligenza artificiale ribadendo concetti che aveva già esternato in più occasioni anche in passato.
Per Richard Stallman, l’intelligenza artificiale generativa è un pappagallo che ripete fandonie
Facendo leva sull’approccio diplomatico che lo contraddistingue e usando il suo proverbiale garbo, Stallman ha semplicisticamente affermato che per lui l’intelligenza artificiale, così come la concepiamo oggi, è generatrice di fandonie. “Non comprendendo il significato di ciò che dice, si limita a ripetere frasi, come un pappagallo, con tutto il rispetto per i volatili“, ha aggiunto.
Secondo il pioniere del software libero, i modelli linguistici possono generare testi coerenti, ma senza consapevolezza o conoscenza reale. Questo li rende strumenti inadatti a produrre verità, alimentando invece disinformazione e contenuti errati. “I modelli linguistici non sanno nulla: giocano con le frasi, generano testi, senza capirne il significato“, ha proseguito Stallman.
Noi stessi abbiamo definito la prima versione di ChatGPT, a novembre 2022, un “pappagallo stocastico“. Non è un'”offesa”: la generazione di testo si basa su probabilità matematiche. Ogni parola è scelta in base alla distribuzione statistica delle parole nei dati di addestramento, senza alcuna consapevolezza reale. Però da qui a parlare di “fandonie” ce ne passa, soprattutto con le innovazioni introdotte nell’ultimo biennio.
La rivoluzione è davvero in atto e Stallman non se n’è accorto
Come un disco rotto, Stallman continua a ripetere che l’intelligenza artificiale non è affatto protagonista di alcuna rivoluzione tecnologica.
Da parte nostra registriamo come il termine intelligenza artificiale sia spesso utilizzato a sproposito. Pensare di poter accostare le elaborazioni svolte dalle macchine ai processi propri del cervello umano è certamente assurdo. Questo perché le macchine e gli algoritmi possono approssimare il funzionamento del cervello: non sono in grado di ricalcarlo.
La principale novità degli ultimi anni è l’esplosione dei modelli generativi, una sottocategoria dell’intelligenza artificiale. I modelli generativi hanno subìto una forte spinta dopo la pubblicazione dello studio “Attention Is All You Need” (2017), elaborato da un gruppo di ingegneri Google. L’idea vincente descritta in quel documento è il meccanismo di self-attention che permette al modello di pesare dinamicamente le relazioni tra le parole in una frase, indipendentemente dalla loro posizione.
Ecco perché Stallman è indietro di almeno 8 anni. Lo si capisce dalle sue valutazioni su ChatGPT e dalle considerazioni sul termine intelligenza artificiale pubblicate sul sito GNU.
L’idea rivoluzionaria introdotta con “Attention Is All You Need” è che un modello può gestire una sequenza di termini in parallelo, invece di farlo in modo sequenziale come nelle RNN (Recurrent Neural Networks). E i risultati già erano convincenti allora, figurarsi con la rapida evoluzione alla quale abbiamo assistito in questi anni!
I modelli generativi vanno utilizzati con spirito critico
Riferendoci alle abilità dei moderni modelli generativi, in tutti i nostri articoli e approfondimenti abbiamo sempre posto i termini “comprendere” e “ragionare“, al netto di qualche dimenticanza, tra virgolette. Questo per sottolineare che i modelli su cui poggiano le soluzioni di intelligenza artificiale non possono ovviamente basarsi su meccanismi neanche lontanamente simili a quelli alla base del cervello umano. I modelli generativi cercano di approssimarne il funzionamento, a volte in modo piuttosto brillante, in altri casi in maniera meno efficace. Ma sempre di un’approssimazione parliamo.
Ciò che bisogna comprendere è che i modelli generativi si occupano della creazione di nuovi dati simili a quelli su cui sono stati addestrati. La loro funzione principale è quella di imitare la distribuzione dei dati esistenti per produrre output originali. In altre parole (siamo scesi nei dettagli in altri articoli), se si prende un chatbot come ChatGPT, Claude, Gemini, Perplexity, Copilot, DeepSeek e così via, quanto prodotto in risposta al prompt ovvero al quesito dell’utente, è figlio di un’elaborazione costruita su concetti matematico-statistici. Non c’è, da parte del sistema, alcuna comprensione del significato (semantica) delle parole.
Stallman ha scoperto l’acqua calda: non è possibile che la macchina comprenda il significato dei termini. Semmai, può comporre contenuti sulla base delle relazioni che ci sono tra le parole ottenute in fase di addestramento. Fatto sta che il fenomeno delle allucinazioni è molto meno impattante oggi che in passato e i modelli più evoluti sono in grado di sviluppare una percezione semantica proprio sulla base delle ottimizzazioni introdotte nel tempo.
Il cambiamento è in corso ed è impossibile negarlo
Chi si ostina a sostenere che non vi è alcun cambiamento in atto è perché non ha la pazienza di studiare, la voglia di approfondire oppure si muove per preconcetti.
Con buona pace di Stallman, quindi, sì, stiamo assistendo a una rivoluzione epocale sotto la spinta dell’intelligenza artificiale. O meglio dei modelli generativi. Che non sono soltanto i Large Language Model (LLM) ma anche modelli generativi in grado di elaborare e produrre immagini, video, audio, musica. Modelli che possono integrare le rispettive abilità con un approccio che è sempre più multimodale.
Piuttosto, è fondamentale che l’opinione pubblica conosca i rudimenti dei modelli generativi e, soprattutto, i loro limiti. Diversamente da quello che sostiene Stallman, l’AI non sta generando solo fandonie. L’importante è essere consapevoli che i modelli, in forza della loro natura, possono commettere errori e offrire rappresentazioni fattuali che non corrispondono al vero.
Chi utilizza il modello generativo, a qualsiasi livello, deve quindi “accendere il cervello”, esaminare i contenuti con spirito critico e disporre di un bagaglio culturale ed esperienziale sufficienti.
Ciò compreso, l’AI sta davvero cambiando il mondo del lavoro, come certifica anche Anthropic, e può contribuire a migliorare la società perché, ad esempio, permette di avere accesso a contenuti che diversamente sarebbero complessi da recuperare usando approcci tradizionali. Aiuta ad estrarre valore dall’intero scibile umano così come dai dati di una singola impresa od organizzazione raccolti in decenni di attività. Chi, dotato di carne ed ossa, riuscirebbe a “scartabellare” quei contenuti, comprendere relazioni, collegamenti e ottenere punti di vista innovativi? Nessuno. I modelli generativi permettono invece di farlo riuscendo a stabilire connessioni che nessuno si sarebbe mai sognato.
Democratizzare l’intelligenza artificiale
L’importante, semmai, sarebbe quello di applicare lo spirito del software libero ai modelli generativi. Al fine di contribuire all’avanzamento tecnologico e alla ricerca, i modelli dovrebbero essere aperti, riutilizzabili da parte di chiunque, adattabili e migliorabili in proprio.
Non è possibile pensare che il progresso della società possa dipendere quasi esclusivamente dagli avanzamenti in campo AI promossi da una manciata di colossi tecnologici, con finalità prettamente commerciali.
Ben vengano quindi i progetti promossi dalla comunità, che migliorano e sviluppano quanto c’è già.
E figurarsi se Stallman ha parlato di reasoning in campo AI. Eppure, si è recentemente dimostrato come, lasciando il tempo al modello di provare a confutare le sue stesse risposte, sia possibile ottenere output ancora più precisi e circostanziati, frutto di un’elaborazione che approssima da vicino la scomposizione dei problemi svolta da un essere umano.
I vantaggi sono tangibili tanto che i modelli generativi che implementano approcci reasoning/thinking non hanno più difficoltà con i problemi che richiedono competenze logico-matematiche (schemi basati su catena di pensiero o CoT). Anzi, sono in grado di risolverli brillantemente. E i miglioramenti in tal senso si sono visti in meno di un anno!
I problemi che restano sul campo
L’uso dell’intelligenza artificiale porta con sé numerosi vantaggi, ma anche una serie di problemi e rischi che devono essere considerati. Questi problemi possono essere suddivisi in diverse categorie: etici, sociali, economici, tecnici e di sicurezza:
- I modelli generativi sono addestrati su grandi quantità di dati, che spesso contengono pregiudizi già esistenti nella società. Se i dati di addestramento sono distorti, l’AI può amplificare discriminazioni legate a razza, genere, religione o status socio-economico.
- L’uso indiscriminato di meccanismi di scraping del Web o di altre fonti può comportare l’acquisizione di dati personali che invece non dovrebbero essere utilizzati per formare le conoscenze dei base del modello.
- L’intelligenza artificiale dovrebbe essere una sorta di “copilota” e non sostituire l’uomo nello svolgimento delle sue mansioni.
- L’accesso alle risorse per addestrare modelli avanzati non può essere limitato a pochi attori con ingenti risorse economiche. È necessario da un lato promuovere l’accesso alle risorse per addestrare i modelli in maniera indipendente, dall’altro promuovere modelli aperti. In modo da far circolare le conoscenze e promuovere lo sviluppo di progetti derivati e innovativi.
- I modelli generativi possono produrre informazioni errate o completamente inventate (le cosiddette “allucinazioni”), generando contenuti non affidabili.
- Le leggi non stanno al passo con lo sviluppo dell’AI. Per evitare un vuoto normativo sono comunque necessari provvedimenti che garantiscono un uso etico dell’AI senza porre freni all’innovazione responsabile. In ottica futura, inoltre, se un’AI prendesse una decisione errata o dannosa, chi ne è responsabile?
È di questi aspetti che bisogna parlare, non trincerarsi su posizioni legate alla preistoria dell’informatica e oggi assolutamente anacronistiche.
Credit immagine in apertura: Frank Karlitschek, licenza CC Attribution-Share Alike 3.0 Unported.