Sicurezza dell’intelligenza artificiale | “Il Canada sta prendendo l’iniziativa”, afferma il Ministro Champagne

-

Il Canada tenterà di costruire un muro di sicurezza attorno all’intelligenza artificiale (AI), la cui tecnologia continua a essere perfezionata ad alta velocità, ampliando così non solo il suo potenziale benefico, ma anche i rischi e i pericoli che presenta per la società.


Inserito alle 17:09

Pierre Saint-Arnaud

La stampa canadese

Il ministro federale dell’Innovazione, della Scienza e dell’Industria, François-Philippe Champagne, ha lanciato l’Istituto canadese per la sicurezza dell’intelligenza artificiale (ICSIA), promesso nell’ultimo bilancio del suo governo.

“È raro nella vita avere la possibilità di essere testimoni e di contribuire al progresso per proteggere l’umanità”, ha affermato negli uffici del Mila, l’Istituto di intelligenza artificiale del Quebec, insieme al suo fondatore, il professor Yoshua Bengio.

“Sono già andato da qualche parte a preoccuparmi”

L’Istituto beneficerà di un budget di 50 milioni in cinque anni e riunirà ricercatori di alto livello che studieranno le modalità per mettere in sicurezza questa tecnologia che presenta già dei problemi, ha spiegato il professor Bengio. “C’è già disinformazione. La sfida è che l’intelligenza artificiale potrebbe potenziare gli strumenti di influenza e persuasione. Lo vediamo già con gli hyperfake [deep fakes]. »

Gli esperimenti con gli strumenti di intelligenza artificiale, ha affermato, hanno dimostrato “che la macchina è in grado di influenzare meglio dell’uomo”. Siamo già preoccupati e dobbiamo affrontarlo”. Inoltre, ha affermato, “vogliamo assicurarci che l’intelligenza artificiale non venga utilizzata in modi pericolosi da regimi autoritari e che non ci esploda in faccia”.

type="image/webp"> type="image/jpeg">>>

FOTO CHRISTINNE MUSCHI, LA STAMPA CANADESE

Il professor Yoshua Bengio (a sinistra) guarda Francois-Philippe Champagne, Ministro federale dell’innovazione, della scienza e dell’industria

L’Istituto canadese si aggiunge ad altre due organizzazioni di questo tipo, una negli Stati Uniti, l’altra nel Regno Unito, e l’annuncio della sua creazione arriva alla vigilia del vertice internazionale sulla sicurezza dell’intelligenza artificiale, che si terrà a novembre 20 e 21 a San Francisco, Stati Uniti.

Paure in azienda

“Il Canada sta assumendo l’iniziativa per garantire che avremo una tecnologia al servizio dell’umanità, che avrà un buon numero di regole e strutture”, ha affermato Champagne.

Il Canada è un po’ indietro nell’integrazione dell’intelligenza artificiale in vari settori economici e i timori che suscita non sono estranei a questo ritardo, ha affermato il presidente e amministratore delegato dell’Istituto canadese di ricerca avanzata (CIFAR), Stephen Toope. “Diversi leader aziendali ci hanno detto che, per sentirsi sicuri nell’adozione dell’intelligenza artificiale, hanno bisogno di garanzie sulla sicurezza e di un forte contesto normativo. » Il CIFAR sarà responsabile della componente di ricerca dell’Istituto.

“Se vogliamo passare dalla paura all’opportunità, dobbiamo creare fiducia”, ha affermato il Ministro Champagne. E le ripercussioni di questa fiducia si faranno sentire in sempre più aspetti della vita quotidiana dei canadesi, come ha illustrato: “Non ci interessa se l’intelligenza artificiale ti aiuta a scegliere la migliore pizza che desideri un giovedì sera con la tua famiglia, ma ci preoccupa l’intelligenza artificiale che deciderà se avrai un prestito o se ad esempio avrai una polizza assicurativa o all’ultimo momento se ti offriremo un lavoro, perché è lì che possono esserci degli abusi ed ecco cosa vogliamo prevenire. »

type="image/webp"> type="image/jpeg">>>

FOTO CHRISTINNE MUSCHI, LA STAMPA CANADESE

Il professor Yoshua Bengio e François-Philippe Champagne, Ministro federale dell’innovazione, della scienza e dell’industria

Lavorare a monte

Yoshua Bengio riconosce che il compito sarà difficile. “Dobbiamo lavorare con le aziende (AI) per valutare questi rischi e mitigarli. Penso ai problemi di allineamento – come garantire che l’IA si comporti in modo corrispondente alle nostre intenzioni, alle nostre leggi – e di controllo, affinché agisca nella direzione di ciò che vogliamo, ad esempio nel contesto della sicurezza informatica e della disinformazione. »

L’esperto ritiene che esistano possibilità di intervento direttamente nella fase di produzione dei sistemi di intelligenza artificiale. “Se il sistema di intelligenza artificiale è costruito con garanzie che gli impediscono di produrre contenuti pericolosi per la democrazia, tossici [il donne l’exemple de la pornographie juvénile]ci sono cose che possiamo fare tecnicamente a monte. » I progettisti di questi sistemi dovrebbero quindi renderne più difficile l’utilizzo «per i paesi che vogliono usarli contro di noi. È un’importante questione di sicurezza, è una questione di progettazione per questi sistemi”, afferma.

Piattaforme impotenti

Un’altra parte del problema non è nelle mani dei progettisti di questi sistemi, ma in quelle dei colossi del web che lasciano passare tutto, deplora Bengio. “Le piattaforme dovrebbero avere una responsabilità. Oggi si trovano in una zona un po’ grigia. […] È facilissimo creare un account su una di queste piattaforme e farlo in modo anonimo. È chiaro che questa è una porta aperta ai gruppi che vogliono destabilizzare le nostre democrazie. »

Parte della soluzione, suggerisce, potrebbe benissimo risiedere nell’intelligenza artificiale stessa. “Dal punto di vista tecnologico, ci sono ricercatori che stanno cercando di vedere come potremmo utilizzare l’intelligenza artificiale per rilevare che i contenuti sono falsi o fuorvianti o violano determinati standard. »

Un altro dei problemi presentati dall’intelligenza artificiale è l’uso di contenuti protetti da copyright. Strumenti di intelligenza artificiale come ChatGPT vengono addestrati, ad esempio, sulla lettura di giornali e libri di ogni tipo. Questa domanda è sulla bocca di tutti a livello internazionale, riconosce Yoshua Bengio. “Ci sono processi in corso. Questa non è una domanda facile. Ci auguriamo che converga il più rapidamente possibile in modo da consentire l’innovazione e proteggere coloro che creano contenuti. »

E in Canada? Su questo tema il ministro Champagne si muove solo con la massima cautela. “Spesso, in questi modelli, viene utilizzata la proprietà intellettuale e a quel punto la domanda è: come remunerare chi ha diritti su questa proprietà intellettuale? L’intelligenza artificiale è soggetta a copyright. È una tecnologia nuova, ma non cancella i principi base che sono sempre esistiti. Stiamo attualmente organizzando una consultazione pubblica in Canada proprio per affrontare questo problema”, spiega il signor Champagne.

-

PREV Un uomo accoltellato davanti a un cimitero del Nord, cinque persone condannate
NEXT Condannata la Svizzera per aver voluto rimandare indietro un gay iraniano