Quando si parla della relazione tra le intelligenze artificiali e la salute è bene muoversi sempre con i proverbiali piedi di piombo. ChatGPT e altri strumenti basati sull’utilizzo di modelli generativi non possono e non devono sostituirsi a professionisti in carne ed ossa, soprattutto quando vi è di mezzo la medicina e la necessità di applicare specifiche indicazioni terapeutiche.
Abbiamo visto nell’articolo su come programmare con ChatGPT che il chatbot di OpenAI è spesso definito un “pappagallo stocastico“. Servizi come ChatGPT, e in generale i diversi modelli generativi oggi disponibili, si basano su un processo probabilistico, non certo deterministico. L’IA “prevede” le parole successive più probabili nella composizione della risposta attingendo ai dati raccolti durante la fase di addestramento. Com’è ovvio, quanto più sono estesi e soprattutto qualitativamente elevati tali dati, tanto più ChatGPT e “soci” riescono a produrre risposte attendibili e pertinenti. Sebbene si parli di “conoscenza” nel caso delle moderne intelligenze artificiali, l’uso di quel termine è un po’ tirato per i capelli perché – come abbiamo spiegato – le risposte derivano da un’analisi probabilistica svolta a fronte dell’input o prompt fornito.
Lasciare che ChatGPT e altre intelligenze artificiali forniscano consigli e facciano diagnosi mediche è comunque un argomento oggetto di accese discussioni. Certo è che l’intelligenza artificiale può essere utile come supporto da affiancare eventualmente alle competenze del professionista.
D’altra parte, un chatbot che utilizza Med-PaLM 2, modello sviluppato a partire da dati sanitari e basato sul Large Language Model (LLM) Google PaLM 2 (annunciato a maggio 2023) è già utilizzato in molte strutture mediche ed è continuamente oggetto di test e verifiche. L’intelligenza artificiale non può sostituire l’esperienza e la conoscenza dei medici, ma può essere utilizzata come uno strumento ausiliare.
ChatGPT centra la diagnosi medica risolvendo il problema lamentato da un bimbo
Se poi si parla di diagnosi che riguardano la salute dei minori, è bene usare un dose di cautela ancora maggiore. Tuttavia, una storia che arriva dagli USA non può non essere raccontata.
Una mamma racconta di aver sottoposto il figlio di 4 anni, Alex, per tre anni di fila, a una serie di controlli medici nel tentativo di risolvere un problema che gli impediva di giocare con gli altri bambini. Alex lamentava dolore ma dopo ben 17 pareri medici non si è riusciti a comprenderne le motivazioni.
Praticamente fino all’età di 7 anni, quindi, Alex ha assunto antidolorifici a cadenza giornaliera. Partendo dalla verifica di eventuali problematiche orali, il bambino ha sopportato l’applicazione di un apparecchio per evitare di digrignare i denti e respirare meglio poi si è sottoposto a terapie fisiche per provare a risolvere uno squilibrio tra gli arti inferiori. La madre ha poi interpellato una serie di specialisti per capire la regione delle forti emicranie e della stanchezza del figlio.
Il chatbot invita comunque a rivolgersi agli specialisti
Disperata, la madre di Alex ha inserito in ChatGPT tutti i dettagli relativi ai sintomi lamentati dal figlio, le informazioni sui controlli svolti, gli esiti degli accertamenti, i pareri già ricevuti in precedenza. Usando i suoi dati di addestramento, il modello generativo di ChatGPT ha emesso la sua diagnosi parlando di Tethered Spinal Cord Syndrome, una condizione medica in cui il midollo spinale è trattenuto o “legato” alla base della colonna vertebrale. Il normale movimento del midollo spinale all’interno del canale spinale è così fortemente impedito.
Dopo “l’imbeccata” ricevuta da ChatGPT, la donna si è rivolta a un neurochirurgo pediatrico dell’Università del Michigan specializzato proprio nel trattamento della sindrome in questione. Il medico ha confermato la diagnosi ottenuta dall’intelligenza artificiale, ha avviato un trattamento specifico e il bimbo è ora in via di guarigione.
“La diagnosi della sindrome può essere difficile nei bambini piccoli perché non sono in grado di descrivere accuratamente i loro sintomi“, ha commentato la dottoressa Holly Gilmer, che ha preso in cura Alex. “I bambini sottoposti a intervento chirurgico per questa sindrome possono riprendersi in tempi relativamente brevi“.
Nel fornire la sua personale “ipotesi” (ChatGPT non la chiama correttamente neanche diagnosi…), il chatbot aveva comunque invitato a rivolgersi a specialisti medici per tutti gli approfondimenti del caso.