il Collettivo MentalTech chiede “vigilanza numerica”

il Collettivo MentalTech chiede “vigilanza numerica”
il Collettivo MentalTech chiede “vigilanza numerica”
-

Mentre la salute mentale sta vivendo un allarmante deterioramento, il MentalTech Collective pubblica questo giovedì, 10 ottobre, Giornata mondiale della salute mentale, un rapporto che evidenzia il ruolo promettente e preoccupante dell’intelligenza artificiale in questo settore cruciale. Coordinato da Alexia Adda, co-fondatrice di KLAVA Innovation, questo rapporto evidenzia i progressi tecnologici nel campo della salute mentale sollevando questioni etiche fondamentali.

MentalTech è il primo collettivo francese dedicato all’emergere di soluzioni digitali nel campo della salute mentale. Creata nel marzo 2022 da 7 membri fondatori: Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics e Tricky, riunisce oggi più di trenta attori (startup, istituzioni, operatori sanitari) con la stessa ambizione: rispondere all’urgenza di utilizzare strumenti digitali etici nella prevenzione e nella cura della salute mentale.

Il collettivo sottolinea l’aumento dei disturbi dell’umore negli ultimi anni, soprattutto tra i giovani adulti, e l’aumento delle consultazioni psichiatriche d’urgenza, a causa dell’errore diagnostico e del tabù che circonda la salute mentale. Di fronte a queste sfide, l’emergere di strumenti digitali sta diventando essenziale per migliorare la precisione delle diagnosi, personalizzare i trattamenti e facilitare l’accesso alle cure.

AI: uno strumento di trasformazione

Negli ultimi anni l’IA ha fatto notevoli progressi, offrendo soluzioni innovative in diversi ambiti, tra cui quello della salute mentale. Secondo il rapporto emergono quattro principali quadri di intervento sull’IA:

  • Previsione del valore : l’intelligenza artificiale può prevedere gli stati mentali analizzando grandi quantità di dati, rilevando così le emozioni nei video o nelle conversazioni di testo prima che compaiano sintomi gravi;
  • Generazione del dialogo : I chatbot possono interagire direttamente con i pazienti, fornendo un supporto continuo e personalizzato. Possono analizzare in tempo reale lo stato psicologico degli individui attraverso le loro risposte verbali o scritte, e fornire un primo livello di assistenza o raccomandazioni;
  • Creazione di attività terapeutiche : L’intelligenza artificiale può generare programmi su misura per le esigenze specifiche del paziente, inclusi giochi seri ed esercizi di rilassamento. La realtà virtuale può aiutare a trattare le fobie o
    disturbo da stress post-traumatico simulando ambienti terapeutici controllati;
  • Raccomandazione sulle risorse : è possibile fornire raccomandazioni pertinenti ai pazienti (articoli o video), aiutandoli a comprendere e gestire meglio i propri sintomi, e agli operatori sanitari (protocolli di cura) a seconda dei bisogni espressi o rilevati.

Queste tecnologie mirano a migliorare le diagnosi e a creare un sistema sanitario più inclusivo, colmando così le lacune nell’accesso alle cure di salute mentale.

Sfide etiche da affrontare

Tuttavia, il crescente utilizzo dell’intelligenza artificiale nella salute mentale solleva importanti sfide etiche. La protezione dei dati sensibili dei pazienti è una delle principali preoccupazioni, soprattutto perché l’intelligenza artificiale spesso si basa su grandi quantità di dati personali. Inoltre, il rapporto mette in guardia dal rischio di disumanizzazione delle cure, evidenziando la necessità di una convalida umana delle decisioni prese dall’intelligenza artificiale.

Un’altra sfida risiede nella spiegabilità degli algoritmi. Spesso definiti “scatole nere”, questi modelli possono prendere decisioni complesse senza che la loro logica sia sempre comprensibile ai medici, da qui l’importanza di una maggiore trasparenza.

Normative europee

Le applicazioni dell’intelligenza artificiale nel settore sanitario sono spesso considerate ad alto rischio e i nuovi requisiti della legge sull’intelligenza artificiale si aggiungono alle normative esistenti per i dispositivi medici.

Il collettivo ricorda che gli editori di IA devono seguire sei passaggi per conformarsi ai nuovi standard: definire il quadro di utilizzo, ottenere il consenso dei pazienti per la raccolta dei dati, valutare l’impatto dell’IA, anticipare i bias, garantire la conformità normativa e stabilire una governance adeguata.

Appello alla vigilanza numerica

Per affrontare queste sfide, il Collettivo MentalTech chiede la creazione di un quadro di “vigilanza numerica”. Ispirato al modello di farmacovigilanza, questo quadro mira a garantire la sicurezza dei pazienti rilevando rapidamente potenziali deviazioni dai dispositivi di intelligenza artificiale. Secondo lui ciò consentirebbe di mantenere un equilibrio tra innovazione tecnologica e rispetto dei principi etici fondamentali nella gestione della salute mentale.

Il collettivo identifica dieci assi principali per questo quadro:

1. Predisposizione di un avviso informativo : realizzare un documento esplicativo per gli utenti, dettagliando come funziona l’IA, i suoi vantaggi, i suoi rischi, la popolazione target e le misure in caso di malfunzionamento, con un linguaggio accessibile.

2. La creazione di un comitato scientifico multidisciplinare : formare un comitato composto da almeno un medico, un esperto di IA, un esperto di etica e uno specialista di regolamentazione per supervisionare lo sviluppo e la valutazione dei sistemi di IA.

3. Il coinvolgimento degli operatori sanitari : coinvolgere gli operatori sanitari nel processo di sviluppo dell’IA per garantire la robustezza e l’affidabilità dei sistemi.

4. Formazione degli operatori sanitari : offrire formazione sull’intelligenza artificiale, sulle sue applicazioni in medicina e sui principi di valutazione dei sistemi di machine learning.

5. Installazione personalizzata per gli utenti : adattare l’uso degli strumenti di intelligenza artificiale alle preoccupazioni degli utenti, sviluppando protocolli specifici per ciascun caso d’uso.

6. L’assenza di conflitti di interesse : garantire che non vi siano conflitti di interesse tra gli enti coinvolti nell’individuazione e nel trattamento dei disturbi.

7. Adattare le metriche di valutazione : adeguare le metriche di valutazione dell’algoritmo in base al caso d’uso e garantire la trasparenza e l’efficacia dei meccanismi di sicurezza.

8. Ripercorrere le decisioni dell’IA : documentare il processo decisionale dell’IA, spiegando i risultati generati, prevedendo eccezioni quando si possono dimostrare sostanziali benefici medici.

9. Selezione della popolazione formativa : garantire la rappresentatività dei dati utilizzati per l’addestramento dell’IA e, se necessario, effettuare studi aggiuntivi per prevenire distorsioni algoritmiche.

10. Raccolta dati parsimoniosa : seguire le raccomandazioni della CNIL raccogliendo solo dati essenziali, per testare l’IA in modo pragmatico ed efficiente.

-

PREV I “soldati” nigeriani che combattono l’anemia falciforme affrontano un nuovo nemico: il cambiamento climatico
NEXT Ottobre rosa: ad Harnes facciamo sport per combattere il cancro al seno