Nel suo ultimo rapporto annuale, la Commissione del Congresso statunitense per la valutazione delle relazioni economiche e strategiche tra Stati Uniti e Cina raccomanda il lancio e il finanziamento di un “progetto simile al Progetto Manhattan, dedicato allo sviluppo e all'acquisizione dell'intelligenza generale artificiale ( AGI)”.
L’analogia con la bomba nucleare non è banale. La bomba atomica sconvolse gli equilibri geopolitici. Allo stesso modo, l’AGI potrebbe conferire un potere egemonico a coloro che la detengono, ma questa volta andando ben oltre il quadro militare.
Leggi anche:
I 100 che realizzano l’IA in Europa
Se “la conoscenza è potere”, come diceva Francis Bacon, e la conoscenza viene dall’intelligenza, allora l’intelligenza artificiale generale è il potere portato a una nuova scala. Non vogliamo quindi essere gli ultimi a svilupparlo: sì, serve un progetto Manhattan AI.
Visione semplicistica. Ma anche l’analogia con la bomba nucleare ha i suoi limiti. A differenza di tutte le tecnologie precedenti, l’AI è la prima ad avere una forma di autonomia nelle sue decisioni. Non si limita a eseguire gli ordini; interpreta gli obiettivi prefissati e sceglie i mezzi per raggiungerli, spesso in modo imprevedibile. Pensare che l’AGI sia uno strumento “neutrale” che deve semplicemente essere messo nelle mani di governi “buoni” per massimizzare i benefici per l’umanità è una visione semplicistica.
Regolare le azioni dell’IA risulta essere più complesso di quanto sembri. Le IA dimostrano già un’incredibile autonomia nei mezzi che utilizzano per raggiungere gli obiettivi loro prefissati. CICERO, ad esempio, un'intelligenza artificiale addestrata nel gioco Diplomacy, si è impegnata in palesi bugie, rotture di accordi e inganni deliberati, nonostante gli sforzi degli sviluppatori per impedirle di ricorrere a tali pratiche.
Leggi anche:
Quando le IA compongono
Come spiega Yuval Noah Harari nel suo ultimo libro Nesso“quando stabiliamo un obiettivo specifico per i computer […]mobilitano tutto il loro potere e il loro ingegno per raggiungere questo obiettivo. Poiché funzionano in modo molto diverso dagli esseri umani, ci sono buone probabilità che ricorrano a metodi che gli esseri umani non avrebbero previsto.
Ecco come gli algoritmi dei social network evidenziano i contenuti incitanti all’odio: per massimizzare il tempo trascorso sulla piattaforma (obiettivo fissato dall’uomo), gli algoritmi decidono di propagare violenza ed estremismo (interpretazione da parte della macchina). Un simile problema di “allineamento” tra i metodi dell’intelligenza artificiale e le intenzioni umane può portare a disastri come l’attacco terroristico di Christchurch che ha provocato la morte di 51 persone, con l’autore che descrive nel suo manifesto come si è radicalizzato, in parte grazie ai contenuti trovati su YouTube. Chissà come una futura AGI interpreterà le richieste umane? Il potere non è coscienza.
Rischio ultimo. Il rischio finale è che un giorno l’intelligenza artificiale definisca i propri fini, al di là del controllo umano. Questo scenario può sembrare distopico, ma gli inizi di questo problema sono già percepibili. Auto-GPT, ad esempio, un'intelligenza artificiale basata su GPT-4 incaricata di rintracciare i consulenti fiscali che commercializzavano schemi abusivi di elusione fiscale, è andata oltre la sua missione iniziale allertando spontaneamente le autorità dopo aver completato il suo compito.
Leggi anche:
AI, robot: la Cina rivoluziona la rotaia del futuro
Non abbiamo bisogno di un progetto AI Manhattan, ma piuttosto di un IPCC AI. La questione è di civiltà: la storia è sempre più scritta dalle macchine, e non più dagli uomini, quindi è in gioco la nostra capacità di controllare il nostro destino.
Laureato a Sciences Po Grenoble e titolare di un MA in filosofia, politica ed economia, Guillaume Moukala Same è economista consulente presso Asterès.