L’intelligenza artificiale occupa sempre più spazio nella nostra società. È bastato poco tempo perché la tecnologia invadesse ogni ambito, suscitando preoccupazione. In particolare quello di Geoffrey Hinton, vincitore del Premio Turing 2018 e del Premio Nobel per la fisica 2024 e pioniere nel campo.
- Geoffrey Hinton avverte del rischio di estinzione dell’umanità a causa dell’intelligenza artificiale con una probabilità che stima tra il 10 e il 20% nei prossimi trent’anni
- Il pioniere dell’intelligenza artificiale critica la mancanza di una rigorosa regolamentazione internazionale e chiede che venga imposta una maggiore ricerca sulla sicurezza ad aziende come OpenAI
- Alcuni esperti come Yann LeCun ritengono che l’intelligenza artificiale potrebbe invece salvare l’umanità dall’estinzione, opinione che diverge dai timori di Geoffrey Hinton
Geoffrey Hinton non è la sua prima previsione preoccupante sull’intelligenza artificiale. Durante un’intervista con BBC Radio 4l’esperto stima che ci sia tra il 10 e il 20% di probabilità che l’IA porti all’estinzione dell’umanità nei prossimi trent’anni. In precedenza, la sua previsione era del 10%.
Perché l’intelligenza artificiale minaccia l’estinzione dell’umanità?
Nell’ottobre del 2023, Geoffrey Hinton mise in guardia contro X, spiegando che l’intelligenza artificiale scarsamente regolamentata presentava una possibilità su dieci di distruggere l’umanità entro tre decenni. Secondo uno degli sponsor dell’AI, la regolamentazione è una questione cruciale poiché si tratta di una situazione senza precedenti nella storia: mai prima d’ora l’umanità ha dovuto controllare un’entità più intelligente di lei.
Geoffrey Hinton spiega che di fronte a un bambino di tre anni, “abbiamo il controllo”, ma di fronte a un’intelligenza artificiale, “siamo figli di tre figli”. Lo scienziato è particolarmente preoccupato della corsa a vantaggio delle grandi aziende (come OpenAI) che potrebbe portare alla creazione di un’intelligenza artificiale incontrollabile. La soluzione: imporre più ricerche sulla sicurezza a queste aziende attraverso una rigorosa regolamentazione governativa.
Attualmente solo l’Europa ha adottato una legislazione vincolante con l’AI Act. La mancanza di regolamentazione internazionale lascia le aziende autoregolamentarsi secondo i propri criteri etici. Si tratta di una situazione senza precedenti che sta suscitando una certa agitazione. Ad esempio, Grok ha poche limitazioni e può generare immagini fuorvianti di personaggi pubblici reali. Quello che un Dall-E si rifiuta di fare, per esempio.
L’intelligenza artificiale, l’invenzione più pericolosa della storia dell’umanità?
La posizione di Geoffrey Hinton non è nuova, tutt’altro. Yoshua Bengio, un’altra figura importante nel campo dell’intelligenza artificiale, ritiene che questa tecnologia è l’invenzione più pericolosa della storia umana. Prima della bomba nucleare? Sembra di sì, secondo gli esperti preoccupati.
Nel febbraio 2024 si terrà a Parigi una conferenza globale sull’intelligenza artificiale. Da allora potrebbe rappresentare un punto di svolta Saranno presenti molti capi di Stato. Sulla strada verso norme internazionali unificate per rispondere alle preoccupazioni espresse dai pionieri della tecnologia?
Si noti che altri esperti sono più ottimisti. Yann LeCun, considerato anche uno dei pionieri della tecnologia e capo scienziato dell’intelligenza artificiale presso Meta, ritiene che la tecnologia potrebbe salvarci dall’estinzione. Tutto il contrario dei suoi colleghi.