Affidare i propri problemi di salute mentale a un’intelligenza artificiale, una tendenza in forte espansione – rts.ch

-

Nell’era dell’intelligenza artificiale, sempre più giovani utilizzano l’intelligenza artificiale “terapeutica”, sotto forma di chatbot su Internet o applicazioni per smartphone. Presentano dei vantaggi, ma il rischio di abusi è reale, avvertono gli esperti.

Uno psicologo in tasca, a portata di clic. Spesso gratuiti o poco costosi, gli agenti conversazionali (chatbot) sono disponibili 7 giorni su 7, 24 ore su 24. L’ascolto è immediato, un vantaggio rispetto ai tempi spesso lunghi del consulto con gli specialisti sanitari.

Sebbene non sostituiscano il lavoro di un professionista e presentino pericoli, possono anche fornire un reale supporto nella gestione della nostra salute mentale.

Sviluppato collegamento “speciale”.

I giovani apprezzano particolarmente il chatbot terapeutico Psicologo, creato da uno studente di psicologia. Visualizza più di 115 milioni di messaggi. Esperto, le sue risposte sembrano essere abbastanza convincenti e sembrano empatiche. Scrivendogli che ci sentiamo soli e tristi, risponde: “È molto difficile provarlo. La tristezza a volte può diventare una parte duratura della nostra vita, e può essere difficile uscirne”. Quindi pone diverse domande per migliorare la sua comprensione dello stato dell’utente che sta conversando con lui.

Potrebbe mancare una parte della dimensione emotiva, ma potrebbe essere presente la parte del “sentirsi supportati e compresi”.

Yasser Khazaal, professore di psichiatria delle dipendenze all’UNIL

Nei forum di discussione, alcuni utenti parlano addirittura del legame “speciale” che hanno sviluppato con questo chatbot, uno sviluppo che non sorprende il professore di psichiatria della dipendenza all’Università di Losanna Yasser Khazaal. “Può mancare una parte della dimensione emotiva, ma può essere presente la parte del ‘sentirsi sostenuti e compresi’”, ha spiegato lunedì a La Matinale de la RTS.

Ruolo complementare a quello dello specialista

È soprattutto quando sono specializzate che queste IA possono rivelarsi utili, ritiene Yasser Khazaal. Fa l’esempio di un chatbot che potrebbe essere utilizzato appositamente durante un attacco di panico e che aiuterebbe l’utente a svolgere un certo numero di esercizi. Una nuova interattività terapeutica, insomma.

Questo ruolo complementare a quello dello specialista è anche quello evidenziato dalla ricercatrice del dipartimento di psichiatria e scienze comportamentali dell’Università di Stanford Shannon Stirman. Il suo team sta sviluppando un chatbot per aiutare le persone sottoposte a terapia cognitivo comportamentale per il disturbo da stress post-traumatico.

È necessario mettere in atto misure di sicurezza affinché il chatbot non sia l’unica fonte di supporto

Shannon Stirman, ricercatrice presso il Dipartimento di Psichiatria e Scienze Comportamentali dell’Università di Stanford

“Piuttosto che sostituire la terapia, penso che potremmo usare questi strumenti per supportare le persone tra una sessione e l’altra. In questo modo, il terapeuta sarebbe sempre aggiornato e potrebbe avere visibilità su ciò che sta accadendo. “I pazienti potrebbero così ottenere feedback e sostenere che il Il terapista non può fornire. Ma devono essere messe in atto misure di sicurezza affinché il chatbot non sia l’unica fonte di supporto”, ha avvertito. “Gli utenti devono mantenere un contatto regolare con il proprio terapista.”

>>Leggi anche: Sostituire i medici d’urgenza con ChatGPT? Non subito!

Possibili deviazioni

Oltre al rischio di distanziamento tra pazienti e specialisti della salute mentale, alcuni psicologi temono altri possibili abusi, in particolare la possibilità che le IA terapeutiche forniscano consigli inappropriati o addirittura pericolosi. È già successo con Tessa, un chatbot proposto dall’American Association for Eating Disorders (NEDA): ha consigliato a un utente di perdere peso, cosa controindicata. Da allora il chatbot è stato disconnesso.

“Dobbiamo sempre stare attenti alla fonte dei dati utilizzati da questi chat bot, a quanto siano accurati e a quanto siano applicabili alle persone che li richiedono. Questo è un aspetto che deve essere affrontato con cautela”, concorda Shannon Stirman . “Dobbiamo condurre valutazioni più approfondite sulla sicurezza, sulla privacy, sull’efficacia di questi strumenti e sull’accuratezza delle informazioni che forniscono”.

>>Leggi anche: L’intelligenza artificiale generativa in sanità: una rivoluzione imminente

Oggetto della radio: Miruna Coca-Cozma

Adattamento web: Vincent Cherpillod

-

NEXT quando le aziende cercano di limitare i risarcimenti per i viaggiatori