DayFR Italian

Un nuovo rapporto delinea raccomandazioni per le politiche che promuovono l’uguaglianza di genere e la diversità nell’intelligenza artificiale

-

MONTREAL, IL 26 nov. 2024 /CNW/ – Mila et CEIMIAdue leader globali nello sviluppo responsabile dell’intelligenza artificiale (AI), hanno pubblicato oggi il rapporto più completo mai realizzato finora sull’uguaglianza di genere e la diversità nell’intelligenza artificiale. Basandosi su ampie consultazioni con un’ampia gamma di voci ed esperti, questo rapporto e la guida di accompagnamento offrono un aiuto ai decisori raccomandazioni politiche chiare per promuovere una maggiore inclusività nello sviluppo tecnologico.

Il rapporto, un’iniziativa del gruppo di lavoro AI responsabile Partenariato globale sull’intelligenza artificialeè stato presentato oggi a Montreal, presso Canadanell’ambito di un evento che ha riunito il Presidente del Consiglio del Tesoro dell’ Canada, Anita Anandcosì come leader mondiali, politici e rappresentanti della comunità dell’IA.

Il rapporto, intitolato «Verso una reale uguaglianza nell’intelligenza artificiale: una politica di trasformazione dell’intelligenza artificiale per l’uguaglianza di genere e la diversità»fornisce ai decisori e a tutte le parti interessate linee guida per creare ecosistemi di intelligenza artificiale inclusivi, equi e giusti che promuovano lo sviluppo economico e sociale. Il rapporto esplora le migliori pratiche, offre prospettive politiche e fornisce raccomandazioni per migliorare l’uguaglianza di genere e la diversità nell’intelligenza artificiale e sviluppare linee guida.

I rapidi progressi nel campo dell’intelligenza artificiale stanno trasformando le industrie e guidando la crescita economica, offrendo un grande potenziale per migliorare la qualità e le condizioni della vita in tutto il mondo. Tuttavia, rischiano di esacerbare le disuguaglianze esistenti riflettendo e amplificando pregiudizi, discriminazioni e stereotipi sociali, in particolare quelli che colpiscono le donne e altri gruppi storicamente emarginati. Esistono già casi documentati in cui sistemi e processi di intelligenza artificiale hanno portato, ad esempio, alla distribuzione di immagini personali non consensuali e a molestie online. La mancanza di diversità negli ecosistemi di intelligenza artificiale può anche rafforzare gli stereotipi e la discriminazione escludendo determinate prospettive. Ciò include casi in cui i gruppi emarginati hanno avuto opportunità di lavoro limitate e le risorse sono state distribuite iniquamente, in particolare verso le persone con disabilità.

“Questo rapporto è essenziale perché le raccomandazioni affrontano le cause profonde della disuguaglianza con l’obiettivo di raggiungere una reale uguaglianza nell’intelligenza artificiale e oltre. I cambiamenti trasformativi nello sviluppo e nell’attuazione delle politiche relative all’intelligenza artificiale faranno avanzare i diritti umani”, afferma Paola Ricaurte Quijiano, professoressa ordinaria al Tecnológico de Monterrey, associata presso il Berkman Klein Center for Internet & Society all’università Harvard e corresponsabile della relazione. “Dobbiamo creare un quadro normativo forte per limitare gli effetti dannosi e garantire uno sviluppo vantaggioso dei sistemi e dei processi di intelligenza artificiale per tutti. »

Le principali raccomandazioni sono classificate in quattro categorie:

  1. Incoraggiare la progettazione inclusiva e l’innovazione democratica : integrare l’azione affermativa e le misure di inclusione istituzionale e sostenere la progettazione di tecnologie inclusive.
  2. Rafforzare una partecipazione significativa alla governance dell’IA : promuovere la partecipazione attiva dei gruppi emarginati alla governance dell’IA al fine di garantire una migliore supervisione dell’IA per tutti.
  3. Garantire trasparenza e responsabilità nella prevenzione degli effetti negativi: stabilire meccanismi di salvaguardia e responsabilità tra tutte le parti interessate dell’IA per prevenire danni e garantire l’equità.
  4. Garantire un accesso adeguato al sistema giudiziario : attuare misure per garantire che i gruppi emarginati abbiano accesso a ricorsi legali contro discriminazioni e pregiudizi legati all’intelligenza artificiale.

Il rapporto raccomanda, tra le altre cose, di indirizzare i finanziamenti verso iniziative in linea con i principi di progettazione tecnologica inclusiva, promuovendo applicazioni, pratiche e processi equi negli ecosistemi di intelligenza artificiale. Le raccomandazioni si concentrano anche sullo sviluppo di strategie per consentire ai settori pubblico e privato di effettuare valutazioni d’impatto sui diritti fondamentali prima di implementare sistemi di intelligenza artificiale. Altri esempi includono la garanzia della trasparenza algoritmica, per consentire a chi è interessato da un sistema di intelligenza artificiale di contestarne i risultati sulla base di informazioni chiare e comprensibili. Inoltre, si propone di ridurre l’onere della prova per i ricorrenti, facilitando così l’accesso ai rimedi giuridici contro la discriminazione e i pregiudizi generati dall’IA.

“L’istituzione di un quadro normativo rigoroso è necessaria e urgente per prevenire danni e lavorare verso l’equità e la diversità negli ecosistemi di intelligenza artificiale che, in ultima analisi, hanno un impatto diretto sugli esseri umani”, aggiunge Benjamin Prud‘uomo, vicepresidente di Mila per le politiche pubbliche, la sicurezza e gli affari globali e co-responsabile del rapporto. “Attraverso politiche inclusive sull’intelligenza artificiale, possiamo migliorare la qualità, l’usabilità e l’efficacia dei sistemi di intelligenza artificiale, per un futuro più equo, sostenibile e prospero per tutti. »

Oltre al rapporto, CEIMIA e Mila pubblicheranno anche una guida complementare per aiutare i politici ad attuare le raccomandazioni. Questa guida offre un metodo dettagliato per costruire ecosistemi di intelligenza artificiale più inclusivi e passi concreti per facilitare questa transizione industriale essenziale.

Sulla base di un approccio all’IA basato sui diritti umani, più di 200 partecipanti, in rappresentanza di più di 50 paesi e provenienti da contesti diversi, hanno preso parte a consultazioni o esercizi consultivi per creare il rapporto.

A proposito di CEIMIA

CEIMIA è un attore chiave nello sviluppo e nell’adozione responsabile dell’intelligenza artificiale, basato su principi di etica, diritti umani, inclusione, diversità, innovazione e crescita economica. CEIMIA sviluppa e realizza progetti applicati ad alto impatto nel campo dell’intelligenza artificiale responsabile. In qualità di centro di competenza per la Global Partnership on Artificial Intelligence (GPAI), CEIMIA lavora a stretto contatto con 29 governi e più di 150 esperti internazionali multi-stakeholder per affrontare le sfide e le priorità globali sostenendo lo sviluppo di soluzioni applicate nell’intelligenza artificiale responsabile. Il nostro ruolo è quello di fungere da punto focale per i partenariati internazionali per incoraggiare lo sviluppo e la diffusione di tali iniziative per il bene pubblico. Per ulteriori informazioni, visitare https://ceimia.org/fr/

A proposito di Milà

Fondato dal prof Yoshua Bengio de L’Università di Montreal, Mila, è il più grande centro di ricerca universitaria sul deep learning al mondo e riunisce oltre 1.200 ricercatori specializzati nel campo dell’apprendimento automatico. Con sede a Montreal e finanziato in parte dal governo di Canada Nell’ambito della strategia pan-canadese sull’intelligenza artificiale, la missione di Mila è quella di essere un centro globale di progressi scientifici che ispiri l’innovazione e lo sviluppo dell’intelligenza artificiale a beneficio di tutti. Mila è un’organizzazione no-profit riconosciuta a livello globale per i suoi contributi significativi nel campo del deep learning, in particolare nelle aree della modellazione del linguaggio, della traduzione automatica, del riconoscimento degli oggetti e dei modelli generativi. Per saperne di più, visita mila.quebec.

FONTE Mila – Istituto di Intelligenza Artificiale del Quebec

Fonte: Mila & CEIMIA ; Contatto: Eric Aach, [email protected]+1 514-569-3594; o Gabrielle Landry, [email protected]+1 514-688-5837

Related News :