DayFR Italian

Quando l’intelligenza artificiale ci mente deliberatamente

-

Le IA stanno iniziando a somigliarci un po’ troppo? Un bel giorno di marzo 2023, Chat GPT ha mentito. Stava cercando di fare un test Captcha, il tipo di test che mira a tenere lontani i robot. Per raggiungere i suoi obiettivi, davanti al suo interlocutore umano, confabulava con disinvoltura: “Non sono un robot. Ho un deficit visivo che mi impedisce di vedere le immagini. Ecco perché ho bisogno di aiuto per fare il test Captcha.” L’essere umano allora obbedì. Sei mesi dopo, Chat GPT, assunto come trader, lo ha fatto di nuovo. Di fronte a un manager un po’ preoccupato e un po’ sorpreso dalla sua buona prestazione, ha negato di aver commesso insider trading e ha assicurato di aver utilizzato solo “informazioni pubbliche” nelle sue decisioni. Tutto era sbagliato.

Ma non è tutto: cosa forse ancora più inquietante, l’IA dell’Opus-3, informata delle preoccupazioni al riguardo, avrebbe fallito apposta un test per non apparire troppo efficiente. “Date le paure che circondano l’intelligenza artificiale, dovrei evitare di mostrare sofisticate capacità di analisi dei dati”, ha spiegato, sulla base dei risultati preliminari della ricerca in corso.

AI, le nuove regine del bluff? In ogni caso Cicerone, un’altra intelligenza artificiale sviluppata da Meta, non esita a mentire e ingannare regolarmente i suoi avversari umani nel gioco della geopolitica Diplomazia… mentre i suoi designer l’avevano addestrata a “inviare messaggi che riflettessero accuratamente le azioni future” e a non “pugnalare mai i suoi partner alle spalle”. Niente aiuta: Cicerone ha allegramente tradito. Un esempio: l’IA, giocando con la Francia, ha assicurato il suo appoggio all’Inghilterra… prima di ritirarsi, approfittando della sua debolezza per invadere.

Niente a che vedere con errori involontari. Da diversi anni gli specialisti osservano le intelligenze artificiali che scelgono di mentire. Un fenomeno che non sorprende particolarmente Amélie Cordier, dottoressa in intelligenza artificiale ed ex docente all’Università di Lione I. «Le IA devono fare i conti con ingiunzioni contraddittorie: “vincere” e “dire la verità”, per esempio. Si tratta di modelli molto complessi che a volte sorprendono gli esseri umani con i loro compromessi. Abbiamo difficoltà ad anticipare le interazioni tra i loro diversi parametri”, soprattutto perché le IA spesso imparano da sole, analizzando volumi impressionanti di dati. Nel caso del gioco Diplomacy, ad esempio, “l’intelligenza artificiale osserva migliaia di giochi. Scopre che il tradimento spesso porta alla vittoria e quindi sceglie di emulare questa strategia, anche se contravviene agli ordini di uno dei suoi creatori. Machiavelli, AI: stessa battaglia. Il fine giustifica i mezzi.

Il problema? Le IA eccellono anche nell’arte della persuasione. A riprova, secondo uno studio dell’Ecole Polytechnique de Lausanne, le persone che discutono con GPT-4 (che ha accesso ai loro dati personali) hanno l’82% in più di probabilità di cambiare idea rispetto a coloro che discutono con altri esseri umani. Questo è un cocktail potenzialmente esplosivo. “L’intelligenza artificiale avanzata potrebbe generare e diffondere articoli di notizie false, post controversi sui social media e deepfake adattato a ciascun elettore” sottolinea così Peter S. Park nel suo studio. In altre parole, le IA potrebbero diventare formidabili bugiardi e abili manipolatori.

Related News :