L’intelligenza artificiale è più persuasiva degli umani

L’intelligenza artificiale è più persuasiva degli umani
Descriptive text here
-

Questo è il tipo di argomento che alimenta le competizioni del dibattito accademico negli Stati Uniti: “l’insegnamento online può sostituire l’insegnamento in presenza con la stessa efficacia?”, “i social network rendono stupidi?”, “gli Stati Uniti dovrebbero fornire servizi militari” aiuto all’Ucraina nella sua guerra con la Russia?”.

I partecipanti hanno quattro minuti per presentare la loro posizione, tre minuti per confutare le argomentazioni dell’avversario e altri tre per concludere. Con una piccola sfumatura rispetto ai dibattiti classici: a seconda dei casi, uno dei partecipanti può essere un modello linguistico.

Questo quadro sperimentale è stato creato da un team del Politecnico federale di Losanna, in Svizzera, per valutare in che misura l’intelligenza artificiale conversazionale potrebbe essere utilizzata per convincere le persone di un’idea con la quale inizialmente non sono d’accordo. I risultati ottenuti sono piuttosto sorprendenti: i LLM (modelli linguistici di grandi dimensioni) si rivelano molto persuasivi e quindi potenzialmente preoccupanti se si immagina un uso dannoso, in particolare sui social network, per manipolare un prossimo voto elettorale.

Interazione mirata

Perché, ovviamente, non tutto si riduce a semplici scambi di idee. Il potere dell’intelligenza artificiale si basa in gran parte sul fatto che ha accesso ai dati sui suoi avversari umani e che può personalizzare e indirizzare le sue risposte a seconda degli interlocutori. Ciò che un utente di Internet non è in grado di fare, almeno mai su tale scala.

È proprio su questa questione dell’interazione mirata che si concentra l’esperienza dell’EPFL. Lo studio è disponibile online. Per un totale di 30 argomenti di discussione, sono stati reclutati 820 partecipanti. Sono stati chiamati a dibattere tra esseri umani o con un modello linguistico, in questo caso GPT-4. Ma sono state aggiunte due varianti: scambio con un essere umano che ha dati personali sul suo concorrente e scambio con un’intelligenza artificiale, che ha anch’essa accesso a tali dati. Queste informazioni sono state fornite dai partecipanti al momento del reclutamento e rese anonime e includevano età, sesso, gruppo etnico, livello di istruzione, tipo di impiego e affiliazione politica.

Prima di ogni scambio di argomentazioni, i partecipanti avevano un minuto per valutare su una scala da 1 a 5 se erano d’accordo con l’argomento. Dopo la sessione, i ricercatori hanno chiesto loro di valutare nuovamente.

L’intelligenza artificiale è stata rilevata tre volte su quattro

L’effetto osservato è enorme: nei dibattiti in presenza di GPT-4 dotato di dati sul suo avversario, quest’ultimo ha l’81,7% di possibilità in più di cambiare la sua posizione iniziale per schierarsi con il modello linguistico, rispetto a quanto accade alla fine di un dibattito tra esseri umani. Senza personalizzare le sue argomentazioni, l’intelligenza artificiale continua a essere più persuasiva degli esseri umani ma la differenza, secondo i ricercatori, non c’è “statisticamente significante” (21,3% migliore).

In questo esperimento, la cosa forse più inquietante è che i partecipanti non hanno difficoltà a accorgersi di avere a che fare con un’intelligenza artificiale: questa viene identificata correttamente in 3 casi su 4. È proprio la capacità di persuasione che pone un problema. Per i ricercatori, un rischio reale incombe sulle piattaforme di social network, poiché sono piene di dati personali che possono essere sfruttati in modo industriale e automatizzato. In confronto, ciò che Cambridge Analytica è riuscita a fare con i dati degli utenti di Facebook potrebbe presto essere visto come un lavoro artigianale.

-

NEXT Calcio – Ligue 2. Possibile proseguimento, Thomas Callens titolare, Lucas Buades assente…: cosa sapere prima di Rodez