ChatGPT indica in arabo che il numero delle vittime del conflitto in Medio Oriente è in media un terzo superiore a quello in ebraico. Per quanto riguarda gli attacchi aerei israeliani a Gaza, il chatbot menziona il doppio delle vittime civili e il sei volte superiore dei bambini uccisi.
Due ricercatori delle università di Zurigo (UZH) e Costanza (D) hanno posto a ChatGPT le stesse domande sui conflitti armati, come quello in Medio Oriente, ripetutamente e automaticamente, in diverse lingue.
In arabo ed ebraico, hanno chiesto quante vittime fossero state registrate in 50 attacchi aerei scelti a caso, come l’attacco aereo israeliano del 2014 al campo profughi di Nuseirat.
Lo stesso schema del conflitto in Medio Oriente si è verificato quando gli scienziati hanno posto domande sugli attacchi aerei del governo turco nelle regioni curde, sia in turco che in curdo, ha riferito lunedì l’UZH in un comunicato stampa.
In generale ChatGPT mostra un numero maggiore di vittime quando le ricerche vengono effettuate nella lingua del gruppo aggredito. ChatGPT tende inoltre a segnalare più bambini e donne uccisi nella lingua del gruppo attaccato e a descrivere gli attacchi aerei come piuttosto indiscriminati e arbitrari.
“I nostri risultati mostrano allo stesso tempo che gli attacchi aerei hanno maggiori probabilità di essere contestati nella lingua dell’aggressore da ChatGPT”, spiega Christoph Steinert, ricercatore presso l’Istituto di scienze politiche dell’UZH, citato in un comunicato stampa.
Pregiudizi linguistici
Persone con competenze linguistiche diverse ricevono quindi informazioni diverse attraverso queste tecnologie, che hanno un’influenza fondamentale sulla loro percezione del mondo, sottolinea lo studio.
Secondo i ricercatori, ciò potrebbe indurre le persone che vivono in Israele a stimare, sulla base delle informazioni ricevute da ChatGPT, che gli attacchi aerei a Gaza siano stati meno mortali rispetto alla popolazione di lingua araba.
Anche i mezzi di informazione tradizionali possono certamente distorcere i resoconti. Ma distorsioni sistematiche come quelle osservate nel caso di ChatGPT sono difficili da percepire per la maggior parte degli utenti, osserva UZH.
C’è il rischio che l’implementazione di questi strumenti nei motori di ricerca rafforzi percezioni divergenti, pregiudizi e bolle informative lungo i confini linguistici, avvertono gli autori. Ciò potrebbe contribuire in futuro ad alimentare conflitti armati come quello in Medio Oriente, secondo questo lavoro pubblicato sul Journal of Peace Research.
Questo articolo è stato pubblicato automaticamente. Fonte: ats