La ricerca scientifica generata dall’intelligenza artificiale minaccia sia la conoscenza della società in generale, ma anche la fiducia del pubblico nella scienza: è questa la conclusione dei ricercatori dell’Università di Boras, in Svezia, che hanno recentemente individuato più di un centinaio di articoli probabilmente generati dall’intelligenza artificiale all’interno dell’intelligenza artificiale. Motore di ricerca Google Scholar.
Secondo gli autori di questo studio, quindi, la falsa scienza prodotta da robot conversazionali e altri sistemi di intelligenza artificiale è disponibile e può diffondersi facilmente, il tutto a basso costo, a vantaggio delle persone con cattive intenzioni.
La ricerca è pubblicata in Revisione sulla disinformazione della Harvard Kennedy School.
Per Jutta Haider e Björn Ekström, due degli autori del lavoro, questa proliferazione di articoli scientifici di scarsa qualità, prodotti da sistemi noti per “inventare” informazioni, rappresenta un pericolo per la società e la comunità scientifica.
Manipolazione utilizzando prove false
Secondo gli esperti, uno dei principali timori legati alla ricerca generata dall’intelligenza artificiale è l’aumento del rischio di appropriazione indebita di prove, ovvero il fatto che falsi studi possano essere utilizzati per effettuare manipolazioni strategiche.
“Questo rischio aumenta in modo significativo quando gli studi generati dall’intelligenza artificiale vengono pubblicati sui motori di ricerca. Ciò può avere conseguenze tangibili, poiché risultati errati possono diffondersi nella società e forse in altri settori», sostiene il dott. Ekström.
Secondo gli autori dello studio, inoltre, questi articoli problematici si sono già diffusi in altri settori dell’infrastruttura di ricerca online, in varie banche dati e archivi, ma anche sui social media, ecc. E anche se gli articoli in questione vengono rimossi , c’è il rischio che abbiano già avuto il tempo di diffondersi e che continuino a farlo.
Peggio ancora, questi articoli scientifici generati dall’intelligenza artificiale aumentano la pressione sul sistema di peer review, il metodo per verificare se la ricerca è legittima e fattibile, un sistema che è già messo a dura prova dalla quantità di studi pubblicati sul campo.
Il bisogno di sapere meglio
Agli occhi degli autori di questo nuovo studio, il fatto che la ricerca generata dall’intelligenza artificiale si stia diffondendo all’interno dei motori di ricerca e dei database significa che è necessario conoscerla ancora meglio, quando si tratta di ricerca scientifica online.
“Se non possiamo fidarci delle ricerche che leggiamo sul web, rischiamo di prendere decisioni basate su informazioni errate. Ma per quanto questa questione rappresenti un problema in termini di cattiva condotta scientifica, lo è anche in termini di media e di alfabetizzazione scientifica”, sostiene il dottor Haider.
Ciò evoca quindi il fatto che Google Scholar non è un database accademico. Questo motore di ricerca è facile da usare, ma non dispone di garanzie per garantire una certa qualità dei contenuti. Questo è già un problema con i normali risultati di ricerca di Google, ma lo è ancora di più quando si tratta di rendere la scienza accessibile, si sostiene.
“La capacità di determinare quali riviste scientifiche pubblicano studi sottoposti a revisione paritaria di qualità è essenziale, e determinare ciò che costituisce una ricerca affidabile è di grande importanza per il processo decisionale e la capacità di formarsi opinioni su vari argomenti”, ha concluso il dottor Haider.