La scienza falsa generata dall’intelligenza artificiale invade Google Scholar, avvertono i ricercatori

La scienza falsa generata dall’intelligenza artificiale invade Google Scholar, avvertono i ricercatori
La scienza falsa generata dall’intelligenza artificiale invade Google Scholar, avvertono i ricercatori
-

Credito: Università di Borås

La ricerca generata dall’intelligenza artificiale rappresenta una minaccia per la conoscenza sociale e la fiducia del pubblico nella scienza. Questa è la conclusione di uno studio condotto da ricercatori della Scuola svedese di biblioteconomia e scienze dell’informazione dell’Università di Borås, che hanno recentemente identificato più di un centinaio di articoli sospetti generati dall’intelligenza artificiale sul motore di ricerca Google Scholar.

Il loro rapporto evidenzia che gli articoli scientifici falsificati dall’intelligenza artificiale stanno inondando Google Scholar. Questi risultati sulla scienza creata dall’intelligenza artificiale evidenziano che false ricerche possono essere rese disponibili e diffuse su larga scala, spesso a costi ridotti, da soggetti malintenzionati. Questo studio è stato pubblicato sulla rivista Revisione sulla disinformazione della Harvard Kennedy School.

Jutta Haider e Björn Ekström, ricercatori associati presso la Scuola svedese di biblioteconomia e scienze dell’informazione, nonché Kristofer Söderström dell’Università di Lund e Malte Rödl dell’Università svedese di scienze agrarie, evidenziano i pericoli che ciò rappresenta sia a livello sociale che per la comunità scientifica.

Aumento del rischio di manipolazione delle prove

Una delle maggiori preoccupazioni legate alla ricerca generata dall’intelligenza artificiale è il rischio di manipolazione strategica delle prove, denominata “evidence hacking”.

“I rischi di un fenomeno che chiamiamo “evidence hacking” aumentano notevolmente con la diffusione delle ricerche generate dall’intelligenza artificiale sui motori di ricerca. Ciò può portare a conseguenze reali, poiché risultati errati possono permeare la società e vari campi”, ha affermato Ekström, che ha conseguito un dottorato in biblioteconomia e scienze dell’informazione.

I ricercatori hanno già osservato che questi articoli problematici si sono diffusi in altre parti dell’infrastruttura di ricerca online, inclusi vari archivi e social media. La diffusione è rapida e Google Scholar rende visibili questi articoli problematici. Anche se questi articoli venissero rimossi, resta il rischio che abbiano già avuto il tempo di diffondersi e continuare a circolare.

Inoltre, la ricerca prodotta dall’intelligenza artificiale complica ulteriormente un sistema di revisione tra pari già teso.

Richiede una migliore cultura dell’informazione

La distribuzione delle ricerche generate dall’intelligenza artificiale nei database dei motori di ricerca pone crescenti richieste agli utenti di queste informazioni online.

“Se non possiamo fidarci delle ricerche che vediamo, rischiamo di prendere decisioni basate su informazioni errate. Ma non si tratta solo di illeciti scientifici, ma anche di cultura dei media e dell’informazione”, ha aggiunto Haider, professore di biblioteconomia e scienza dell’informazione.

Sottolinea che Google Scholar non è un database accademico. Sebbene il motore di ricerca sia facile da usare e veloce, manca di procedure di garanzia della qualità. Questo è già un problema nei risultati di ricerca standard di Google, ma diventa ancora più critico per l’accessibilità della scienza.

“La capacità delle persone di determinare quali riviste ed editori pubblicano principalmente ricerche sottoposte a revisione paritaria è fondamentale per identificare ciò che costituisce una ricerca affidabile, che è essenziale per il processo decisionale e la formazione delle opinioni”, ha concluso Haider.

Ulteriori informazioni:
Jutta Haider et al., Articoli scientifici fabbricati da GPT su Google Scholar: caratteristiche principali, diffusione e implicazioni per prevenire la manipolazione delle prove, Revisione sulla disinformazione della Harvard Kennedy School (2024). DOI: 10.37016/mr-2020-156

Pubblicato da
Università di Borås

In sintesi, la proliferazione di articoli scientifici generati dall’intelligenza artificiale solleva questioni fondamentali sulla fiducia nella ricerca. Come possiamo rafforzare i meccanismi per differenziare la scienza autentica dai contenuti generati automaticamente? Questa questione merita di essere al centro delle discussioni future per preservare l’integrità scientifica.

-

PREV Nel Vallese la tecnologia digitale diventerà più importante a scuola
NEXT Airbus e jet evitano per un pelo la collisione all’aeroporto di Los Angeles