L’intelligenza artificiale sta emergendo nella ricerca e nell’industria biomedica… in meglio? – rts.ch

L’intelligenza artificiale sta emergendo nella ricerca e nell’industria biomedica… in meglio? – rts.ch
Descriptive text here
-

Lanciato a fine aprile a Basilea da una startup svizzera, un nuovo software propone di utilizzare l’intelligenza artificiale per accelerare e ottimizzare lo sviluppo delle sperimentazioni cliniche. Pieno di promesse, l’arrivo di queste tecnologie in settori che influiscono sulla nostra salute solleva tuttavia diverse questioni etiche.

L’intelligenza artificiale promette di trasformare molti campi di attività nei prossimi anni e il mondo scientifico non fa eccezione. Se l’intelligenza artificiale generativa e i suoi utilizzi a volte impressionanti sono sulla bocca di tutti sin dal lancio di ChatGPT a fine 2022, il mondo della ricerca in realtà cerca di trarne il massimo vantaggio già da diversi anni.

>> Leggi: Nuove proteine ​​scoperte grazie all’intelligenza artificiale

Il fatto di poter ora comunicare con questo software in un linguaggio comune amplia ulteriormente il campo delle possibilità. È stato anche oggetto diuno studio pubblicato a febbraio da un team dell’EPFL, che ha dimostrato un utilizzo molto semplice del GPT-3 in chimica.

“Abbiamo dimostrato che questo approccio era molto più semplice (…) perché possiamo realizzare un modello in cinque minuti. È stata una vera sorpresa che funzionasse così bene”, spiega Berend Smit, co-direttore dello studio. “Non è perfetto, ma è molto utile, perché non hai bisogno di molte conoscenze.”

Imparare dai fallimenti così come dai successi

Secondo questo professore di ingegneria chimica, su questo non ci sono dubbi questi strumenti si trasformeranno il modo in cui pensiamo alla scienza, e in particolare il modo in cui prendiamo in considerazione i dati negativi. Perché come in molti campi, “la tradizione della chimica è pubblicare risultati positivi, ricette che funzionino”, spiega. “Ma con questo metodo impariamo anche da tutte le cose che non funzionano, o non funzionano del tutto”.

“Quindi cambierà completamente il modo in cui le persone pensano ai dati”, continua. “A tutti i chimici viene insegnato a pubblicare solo le cose che considerano importanti. Perché se pubblichiamo tutto, ci perdiamo nei dettagli, non possiamo fare nulla. Ciò cambia completamente con il apprendimento automatico. Dobbiamo pubblicare tutti i dati e lasciare che sia il programma a decidere se sono importanti o meno.”

>> Ascolta anche questa intervista con Berend Smit sulle lezioni apprese dagli esperimenti falliti:

Le ricche lezioni degli esperimenti falliti / QED / 11 min. / 5 febbraio 2019

Queste IA potrebbero quindi consentire agli scienziati di imparare tanto dai loro fallimenti quanto dai loro successi. Una prospettiva gratificante nel campo della salute, dove molti farmaci non riescono a dimostrare la loro efficacia.

Protocollo AI, assistente di ricerca 2.0

È anche su questa idea che si basa Protocol AI, un software lanciato dalla startup svizzera Riskclick che permette di aggregare tutta la letteratura scientifica molto più velocemente, di identificare diversi parametri e di scrivere, grazie al modello del linguaggio, protocolli che a volte sono lunghi diverse centinaia di pagine. Documenti che spesso richiedono più di un anno per essere scritti in tempi normali.

“L’idea è quella di fornire all’utente tutti i dati storici esistenti. Fondamentalmente, inserirai questi dati con parametri diversi. In questo modo, troverai alcune centinaia di protocolli standard che assomigliano esattamente al tuo obiettivi e potrete studiare cosa sono riusciti a fare, cosa non sono riusciti a fare e perché”, spiega Quentin Haas, dottore in immunologia e direttore scientifico di Riskclick.

È uno strumento di gestione. E non penso che quando abbiamo introdotto i copiloti sugli aerei, gli aviatori siano scomparsi.

Quentin Haas, CSO Riskclick

“L’intelligenza artificiale utilizzerà questi protocolli standard come modelli per offrirti alternative che sembrino coerenti in relazione al loro successo o meno. Manualmente, dovresti leggere tutta la letteratura, classificare i documenti… Hai 10 anni, mentre L’intelligenza artificiale lo fa in pochi minuti”, continua.

Martedì 23 aprile a Basilea, il CEO di Riskclick ha cercato di convincere gli investitori e gli altri rappresentanti dell’industria farmaceutica in occasione del lancio ufficiale del Protocollo AI. [RTS – Pierrik Jordan]

Questo strumento potrebbe quindi far risparmiare molto tempo e denaro. Il ricercatore, tuttavia, insiste sul fatto che non è autonomo. “È fondamentale che dietro ci sia un essere umano, un’intelligenza artificiale è incapace di gestire la strategia di una sperimentazione clinica”, sottolinea. “Creare una scala temporale, una scala finanziaria, una scala di probabilità di successo, integrare le persone giuste per rendere i parametri coerenti e applicabili in un ospedale… A meno che non ci sia presto una grande rivoluzione, un’intelligenza artificiale non sarà capace di farlo.”

“Se dai qualcosa di brutto a un’intelligenza artificiale, ne verrà fuori qualcosa di brutto”, riassume. “Il prodotto si chiama ‘copilota’. È uno strumento di pilotaggio. E non penso che quando abbiamo introdotto i copiloti negli aerei, gli aviatori siano scomparsi.”

Questioni etiche e filosofiche

Riskclick è orgoglioso di segnare “una svolta nell’industria farmaceutica”, una promessa che ha già convinto l’azienda francofona Debiopharm. E nelle mani di un settore essenziale per la nostra salute ma spesso additato dai suoi detrattori per i suoi eccessi mercantili, l’uso di questi nuovi algoritmi solleva necessariamente degli interrogativi.

>> Ascolta l’intervista a Cédric Odje, rappresentante del fondo di investimento Debiopharm:

Intervista completa a Cédric Odje / CQFD / 1 min. / Giovedì alle 10:13

Se gli specialisti in etica biomedica o intelligenza artificiale accolgono con favore lo sviluppo di uno strumento promettente, sollevano questioni importanti in termini di trasparenza, tracciabilità della conoscenza, responsabilità nel processo decisionale, preservazione delle competenze umane o normative.

Trasparenza, una condizione non negoziabile

“È una questione di veridicità nell’attribuire crediti alla scienza. Non si tratta di utilizzare l’intelligenza artificiale senza rivelarla”, solleva Samia Hürst, bioeticista dell’Università di Ginevra e membro del Comitato nazionale di etica per la medicina umana.

“Sempre più riviste richiedono che i contributi precisi dei diversi autori siano dettagliati quando si invia un articolo. Se un’intelligenza artificiale esegue determinati passaggi, potrebbe essere abbastanza semplice avere gli stessi requisiti”, spiega. Con una avvertenza, però: “Se si attribuiscono erroneamente i contributi all’interno di un team umano, le persone truffate potranno difendersi, mentre l’intelligenza artificiale no. Quindi saranno necessari nuovi meccanismi per garantire questa trasparenza”.

Esiste un legame diretto tra trasparenza e democrazia

Thomas Souverain, ricercatore in filosofia dell’intelligenza artificiale

La trasparenza è anche il cavallo di battaglia di Thomas Souverain, dottorando in etica e filosofia dell’intelligenza artificiale presso l’Istituto Jean Nicod dell’Ecole nationale supérieure (ENS) di Parigi. Nell’ambito della sua tesi lavora sulle “scatole nere” che l’intelligenza artificiale costituisce agli occhi dei suoi utenti e del pubblico.

“Presentare ai cittadini il fatto che il processo di sperimentazione clinica è stato condotto utilizzando l’intelligenza artificiale rappresenterà di per sé una sfida per l’accettazione. Esiste un legame diretto tra trasparenza e democrazia”, ​​ritiene.

>> Leggi sullo stesso argomento: Asma Mhalla: “I giganti della tecnologia hanno un’avversione ideologica abbastanza viscerale per la democrazia”

Osserva che al momento la maggior parte dei modelli viene pre-addestrata da una manciata di aziende perché richiede un’enorme potenza di calcolo. “C’è quindi una prima scatola nera introdotta dal fatto che non sappiamo esattamente su quali dati siano stati addestrati questi primi modelli”, avverte.

E anche se questi dati provengono per lo più da Internet, “ci si può chiedere se la sintesi di ciò che troviamo su Internet sia vera. Non necessariamente. Questa sintesi non è mai neutra, è una sorta di media di ciò che gli esseri umani hanno scritto lì finora”. ”, sottolinea.

A questo proposito Samia Hürst cita ad esempio la differenza tra uomini e donne nella ricerca medica, un pregiudizio “che attualmente viene lentamente corretto”. “L’intelligenza artificiale potrebbe riprodurre questo pregiudizio. Ma se questo tipo di problema è noto, dobbiamo essere in grado di correggerlo durante l’editing e la revisione etica”, afferma.

Scegliere quali conoscenze preservare

Come tutti i nuovi strumenti, anche l’intelligenza artificiale aumenta il rischio di vedere crollare alcune competenze umane. In questo caso, conoscenza scientifica o know-how. “Naturalmente è in corso una profonda riorganizzazione della conoscenza all’interno della società”, sottolinea Aïda Elamrani, anche lei dottoranda presso l’Istituto Jean Nicod.

“L’importante è non perdere completamente questo know-how e questa conoscenza. Sta a noi decidere collettivamente quali conoscenze e know-how vogliamo che siano riconosciute per preservarle”.

>>Leggi anche: Aïda Elamrani: “L’avvento dell’intelligenza artificiale porta dibattiti etici su scala globale”

I due specialisti in questioni filosofiche relative all’intelligenza artificiale menzionano anche il rischio di “bias dell’automazione”, che consiste nel riprodurre ciecamente i pregiudizi algoritmici ritenendo che l’intelligenza artificiale sia più obiettiva e affidabile dell’uomo.

“È vero che in un settore in cui esistono questioni finanziarie molto importanti, si corre il rischio di voler ottimizzare i costi affermando che abbiamo protocolli più neutrali e ridurre i costi della sorveglianza”, sottolinea Aïda Elamrani. “È una tendenza generale nelle nostre società, soprattutto nell’era digitale, a sostituire il capitale con il lavoro. Questo non è uno scoop, è uno dei principi del capitalismo”.

Non assumersi la responsabilità degli esseri umani

Molti parametri a monte possono quindi influenzare le scelte dell’IA. “Avere l’intelligenza artificiale più efficiente possibile non esclude che qualcuno debba essere responsabile della decisione presa”, osserva Thomas Souverain. In queste condizioni, queste tecnologie non sono intrinsecamente preoccupanti finché sono accompagnate dalla sorveglianza.

>> Vedi anche le nostre serie sull’intelligenza artificiale in diverse aree: L’intelligenza artificiale, uno strumento di aiuto, ma che non si sostituisce all’uomo

Tuttavia, potrebbero spingere per la creazione di nuovi meccanismi di controllo. Samia Hürst parla della creazione di un’autorità internazionale per l’autorizzazione alla commercializzazione dei software, come le autorità per l’autorizzazione dei medicinali. “Esistono software che possono aiutarci molto e altri che possono farci molto male. Non possiamo semplicemente dargli carta bianca”, afferma. “L’intelligenza artificiale è come le sostanze chimiche: alcune sono fantastiche, altre sono terribili, quindi abbiamo bisogno di persone che ne siano a conoscenza per risolvere il problema”.

Una valutazione generalmente ottimistica

E se queste tutele verranno rispettate, l’intelligenza artificiale potrebbe rivelarsi promettente nel campo della ricerca clinica. Oltre alle revisioni della letteratura e alle sperimentazioni cliniche co-pilotate, i modelli linguistici potrebbero aiutare a divulgare meglio concetti complessi, in particolare per le persone che partecipano a sperimentazioni mediche. Invece di creare maggiore sfiducia, l’intelligenza artificiale potrebbe quindi contribuire a ottenere una maggiore accettazione della scienza.

Infine, Aïda Elamrani ricorda anche che delegare compiti ripetitivi alle macchine significa anche liberare più tempo libero per attività prettamente umane, spesso meno dolorose o alienanti.

Pierrik Giordano

-

PREV Di fronte agli Stati Uniti, il rischio di un declassamento dell’Europa preoccupa gli economisti
NEXT Alimentari: Materie prime – -