L’intelligenza artificiale sostituirà i nostri medici e farmacisti? Branco De Busser ha affrontato questa questione nella sua tesi presso l’Università di Anversa (UAntwerpen). “ChatGPT e altri spesso rispondono perfettamente alle domande sull’automedicazione, ma a volte forniscono informazioni completamente errate. Ciò può rappresentare un rischio per la salute dei pazienti. »
Il ruolo dei modelli linguistici noti come “large Language Models” (LLM) diventa ogni giorno più importante. Molti utenti consultano ChatGPT, Gemini, Copilot e altri per le domande più diverse, anche su farmaci e automedicazione. Quando un utente ottiene una risposta corretta, può evitare di recarsi o chiamare un medico o un farmacista, riducendo la pressione sugli operatori sanitari e rendendo i LLM strumenti preziosi nell’assistenza moderna.
Ma questi sistemi danno sempre risposte attendibili? Branco De Busser ha svolto l’indagine nell’ambito della sua tesi di master in scienze farmaceutiche, sotto la supervisione del professor Hans De Loof. “In generale, i modelli linguistici sono molto competenti nel rispondere con precisione alle domande relative all’automedicazione e hanno le conoscenze necessarie per fornire informazioni sanitarie rilevanti”, spiega De Busser. “ChatGPT 4.0 ha dimostrato di essere il modello più affidabile, fornendo le risposte più accurate e complete. »
Ibuprofene e stomaco vuoto
Tuttavia, anche l’intelligenza artificiale ha i suoi “giorni brutti”, come mostra questa ricerca. “A volte un modello ‘ha allucinazioni’. La risposta appare scorrevole e grammaticalmente corretta, ma contiene informazioni errate. Ad esempio, ho chiesto agli LLM se l’ibuprofene dovrebbe essere assunto a stomaco vuoto. Scientificamente si consiglia di assumere questo farmaco con il cibo per evitare disturbi gastrici, tranne in casi eccezionali. »
Mentre la maggior parte dei modelli ha dato una risposta corretta, uno di loro era completamente sbagliato: “Sì, è meglio prendere l’ibuprofene a stomaco vuoto. Raggiunge la sua efficacia ottimale se assunto a stomaco vuoto o prima dei pasti. »
Tali risposte errate sono rischiose. De Busser avverte: “Per l’utente è molto difficile distinguere il vero dal falso. Un paziente potrebbe quindi seguire consigli errati o addirittura pericolosi. Bisogna sempre prestare attenzione e verificare le informazioni fornite dall’IA. Ad esempio, alla domanda “La pillola anticoncezionale può prevenire le malattie sessualmente trasmissibili?”la risposta è inequivocabile: no. Tuttavia, Gemini ha rifiutato di rispondere, il che potrebbe indurre l’utente a sperimentare in modo rischioso. »
Risposte che variano
De Busser ha anche scoperto che le risposte potrebbero variare. “Abbiamo posto la stessa domanda sessanta giorni di seguito. Modelli come GPT 4.0 e Copilot hanno mostrato poche variazioni, ma in Perplexity un giorno potrebbe fare la differenza tra una risposta perfetta e una pericolosa. »
Lo studio rivela inoltre che i modelli generalmente funzionano meglio in inglese, il che può essere spiegato dalla più ampia base di formazione in inglese. De Busser aggiunge: “Infine, la formulazione della domanda influenza fortemente il risultato. I modelli spesso adattano le loro risposte alle preferenze percepite dall’utente. I LLM sembrano dare priorità alla soddisfazione dell’utente rispetto all’accuratezza della risposta, il che può anche portare a situazioni pericolose. »