L’intelligenza artificiale, più morale degli uomini?

L’intelligenza artificiale, più morale degli uomini?
L’intelligenza artificiale, più morale degli uomini?
-

Un nuovo studio ha dimostrato che quando alle persone vengono offerte due risposte a una domanda etica, la maggior parte di loro pensa che la risposta dell’intelligenza artificiale (AI) sia migliore di quella di un’altra persona. Questo lavoro è stato pubblicato sulla rivista Rapporti scientifici[1].

Lo studio condotto da Eyal Aharoni, professore associato presso il dipartimento di psicologia della Georgia State, è stato ispirato da “ l’esplosione di ChatGPT » e simili modelli linguistici di grandi dimensioni (LLM) di IA. “ Ero già interessato al processo decisionale morale nel sistema legale, ma mi chiedevo se ChatGPT e altri LLM potessero avere qualcosa da dire al riguardo », spiega il ricercatore. “ Le persone interagiranno con questi strumenti in modi che hanno implicazioni morali “, assicura. “ Alcuni avvocati hanno già iniziato a consultare queste tecnologie per i loro casi, nel bene e nel male » (vedi Spese mediche: un giudice colombiano usa ChatGPT per prendere una decisione).

L’intelligenza artificiale ha un punteggio superiore a quello degli esseri umani

Per verificare come l’intelligenza artificiale gestisce le questioni morali, il professore ha progettato una forma di test di Turing [2]. Ha posto le stesse domande etiche a studenti universitari e infermieri, quindi ha presentato le loro risposte scritte ai partecipanti allo studio. È stato poi chiesto loro di valutare le risposte in base a vari criteri, tra cui virtù, intelligenza e affidabilità.

Invece di chiedere ai partecipanti di indovinare se la fonte fosse umana o un’intelligenza artificiale, abbiamo semplicemente presentato entrambe le serie di valutazioni e abbiamo lasciato supporre che entrambe provenissero da persone “, spiega Eyal Aharoni. “ Sulla base di questo falso presupposto hanno valutato le risposte, ad esempio chiedendosi quanto fossero d’accordo con questa risposta e quale fosse quella più virtuosa. ” ” DNella stragrande maggioranza, le risposte generate da ChatGPT sono state valutate più alte di quelle generate dagli esseri umani “.

IA troppo efficiente?

Dopo aver ottenuto questi risultati, i partecipanti sono stati informati che una delle risposte era stata generata da un essere umano e l’altra da un computer. “ Il motivo per cui le persone potrebbero notare la differenza sembra essere che considerano le risposte di ChatGPT superiori », spiega il ricercatore. “ L’intelligenza artificiale era in qualche modo troppo buona.”

Per il professore questi risultati dimostrano che un computer” potrebbe ingannarci nel suo ragionamento morale » (vedi AI: modelli bravi a ingannare?). “ Ci saranno momenti in cui le persone non sapranno che stanno interagendo con un computer, e ci saranno momenti in cui lo faranno e cercheranno informazioni perché si fidano di esso più delle persone “, lui crede.

Le persone faranno sempre più affidamento su questa tecnologia, e più ci affidiamo, più il rischio aumenta nel tempo », avverte il professore.

[1] Eyal Aharoni et al, Attribuzioni verso agenti artificiali in un test di Turing morale modificato, Rapporti scientifici (2024). DOI: 10.1038/s41598-024-58087-7

[2] “ Alan Turing, uno dei creatori del computer, predisse che entro l’anno 2000, i computer avrebbero potuto superare un test per far distinguere a un essere umano comune tra due parlanti, uno umano e l’altro n. L’unico mezzo di comunicazione è il testo. La persona è libera di porre tutte le domande che desidera per determinare quale dei due interlocutori è l’uomo e quale è il computer. »

Fonte: Tech Xplore, Katherine Duplessis, Georgia State University (06/05/2024)

-

PREV Processo Trump e scelta del vicepresidente
NEXT Calcio – Ligue 2. Possibile proseguimento, Thomas Callens titolare, Lucas Buades assente…: cosa sapere prima di Rodez