Dobbiamo vedere il bicchiere mezzo pieno o mezzo vuoto? Un nuovo studio del dottor Adam Rodman, un esperto di medicina interna presso il Beth Israel Deaconess Medical Center di Boston, ha esaminato come i chatbot come ChatGPT potrebbero aiutare i medici a diagnosticare le malattie: anche con risultati eccellenti, sembra che i professionisti non ne traggano vantaggio potenziale. Facciamo il punto.
Nel dettaglio, i ricercatori hanno pubblicato questo studio sulla rivista Rete JAMA apertaha riunito 50 medici operanti negli ospedali americani. Hanno esaminato 105 casi clinici basati su pazienti reali utilizzati dagli scienziati a partire dagli anni ’90.
Risultati inquietanti
Le conclusioni di questo esperimento sono a dir poco sorprendenti. In effetti, scioccarono persino il dottor Rodman. Non sorprende che ChatGPT abbia ottenuto un punteggio medio soddisfacente del 90% nello stabilire la diagnosi. I medici che non hanno utilizzato questo strumento hanno ottenuto una valutazione del 74%, mentre quelli che hanno utilizzato questa IA hanno fatto solo leggermente meglio: 76%.
Quindi la domanda principale era: perché questi professionisti non sfruttavano le capacità di ChatGPT? La risposta è semplice: i medici non si fidavano dell’IA quando faceva una diagnosi diversa dalla loro. Si sono aggrappati fermamente alla loro idea senza cercare di metterla in discussione o confrontarla con l’analisi dell’intelligenza artificiale.
Allo stesso modo, i medici hanno utilizzato molto male il modello linguistico di OpenAI. Pertanto, questi ultimi tendevano a utilizzarlo come motore di ricerca ponendogli alcune domande specifiche su un caso. Solo una piccola parte di loro ha capito che potevano chiedergli un punto di vista complessivo sulla cartella clinica di un paziente.
L’apprendimento sembra quindi necessario se vogliamo che gli operatori sanitari traggano vantaggio dalle capacità di questa tecnologia, anche se devono sempre mantenere il loro pensiero critico.
Gli utenti di Internet si fidano (troppo?) di ChatGPT?
Ricordiamo che la fiducia degli utenti nelle competenze di ChatGPT è al contrario sorprendentemente alta. Secondo un recente studio del Life Span Institute dell’Università del Kansas, i genitori non sono in grado di distinguere le risposte prodotte dalle IA da quelle prodotte dai medici umani.
Allo stesso modo, la maggior parte di loro ha ritenuto che i testi prodotti dai chatbot fossero i più affidabili nell’ambito di questo esperimento. Maggiori informazioni nel nostro precedente articolo qui.
???? Per non perdere nessuna novità di Presse-citron, seguici su Google News e WhatsApp.
Health