Condividi la pubblicazione “Verso un’intelligenza artificiale più giusta e rispettosa: apprendimento federato per combattere i pregiudizi”
Negli ultimi anni sono scoppiati numerosi scandali che hanno coinvolto sistemi di supporto decisionale basati sull’intelligenza artificiale (AI) che producono risultati razzisti o sessisti. È stato il caso, ad esempio, dello strumento di reclutamento di Amazon, che ha mostrato pregiudizi nei confronti delle donne, o del sistema di guida dell’assistenza ospedaliera in un ospedale americano che ha sistematicamente favorito i pazienti bianchi rispetto a quelli neri. In risposta al problema dei bias negli algoritmi di intelligenza artificiale e di apprendimento automatico, sono state proposte leggi come l’AI Act nell’Unione europea o il National AI Initiative Act negli Stati Uniti.
Un argomento ampiamente ripetuto sulla presenza di distorsioni nei modelli di intelligenza artificiale e di machine learning è che essi riflettono semplicemente una verità fondamentale: la distorsione è presente nei dati reali. Ad esempio, i dati provenienti da pazienti con una malattia che colpisce specificamente gli uomini risultano in un’intelligenza artificiale sbilanciata a favore delle donne, senza che questa intelligenza artificiale sia errata.
Quando i pregiudizi dell’IA tradiscono le disuguaglianze sociali
Sebbene questa argomentazione sia valida in alcuni casi, ci sono molti casi in cui i dati sono stati raccolti in modo incompleto e non riflettono la diversità della realtà sul campo, o in cui i dati includono casi statisticamente rari e che saranno sottovalutati, o addirittura sottovalutati non rappresentato, nei modelli di machine learning. È il caso, ad esempio, dello strumento di reclutamento di Amazon che ha mostrato una preferenza verso le donne: poiché le donne che lavorano in un settore sono statisticamente poche, l’intelligenza artificiale risultante semplicemente respinge le candidature femminili.
E se invece di riflettere, o addirittura esacerbare una realtà attuale disfunzionale, l’intelligenza artificiale potesse essere virtuosa e servire a correggere i pregiudizi nella società, per una società più inclusiva? Questo è ciò che propongono i ricercatori con un nuovo approccio: il “federated learning”.
IA virtuosa: obiettivo o utopia?
I sistemi di supporto decisionale basati sull’intelligenza artificiale sono guidati dai dati. Infatti, negli approcci tradizionali al machine learning, i dati provenienti da diverse fonti devono prima essere trasmessi a un repository (ad esempio, un server sul cloud) che li centralizza, prima di eseguire un algoritmo di elaborazione del machine learning su questi dati centralizzati.
Tuttavia, ciò solleva questioni relative alla protezione dei dati. Infatti, secondo la normativa vigente, un ospedale non ha il diritto di esternalizzare i dati medici sensibili dei propri pazienti, una banca non ha il diritto di esternalizzare le informazioni private delle transazioni bancarie dei propri clienti.
Di conseguenza, per preservare meglio la riservatezza dei dati nei sistemi di IA, i ricercatori stanno sviluppando approcci basati sulla cosiddetta IA “distribuita”, dove i dati rimangono sui siti che li possiedono e dove gli algoritmi di apprendimento automatico vengono eseguiti in modo distribuito su questi diversi siti. siti – questo è anche chiamato “apprendimento federato”.
Verso un’IA decentralizzata e data-friendly
Concretamente, ciascun proprietario dei dati (partecipante all’apprendimento federato) addestra un modello locale sulla base dei propri dati, quindi trasmette i parametri del proprio modello locale a una terza parte che effettua l’aggregazione dei parametri di tutti i modelli locali ( ad esempio tramite una media ponderata in base al volume di dati di ciascun partecipante). Quest’ultima entità produce quindi un modello globale che verrà utilizzato dai diversi partecipanti per fare le loro previsioni.
Pertanto, è possibile costruire una conoscenza globale a partire dai dati degli altri, senza rivelare i propri dati e senza accedere ai dati degli altri. Ad esempio, i dati medici dei pazienti rimangono in ciascun centro ospedaliero che li possiede e sono gli algoritmi di apprendimento federati che eseguono e coordinano tra questi diversi siti.
Costruisci un modello globale ed efficace senza centralizzare i dati
Con un simile approccio, sarà possibile per un piccolo centro ospedaliero situato in un’area geografica meno popolata rispetto alle grandi metropoli – e quindi con meno dati medici rispetto ai grandi ospedali, e di conseguenza, con un’intelligenza artificiale a priori meno addestrata – beneficiare di un L’intelligenza artificiale riflette la conoscenza globale, addestrata in modo decentralizzato sui dati provenienti da diversi centri ospedalieri.
Si possono citare altri casi applicativi simili, che coinvolgono diverse banche per costruire un’intelligenza artificiale globale per il rilevamento delle frodi, diversi edifici intelligenti per determinare un’adeguata gestione energetica, ecc.
I pregiudizi nell’intelligenza artificiale decentralizzata sono più complessi da comprendere
Rispetto al tradizionale approccio centralizzato di machine learning, l’intelligenza artificiale decentralizzata e i suoi algoritmi di apprendimento federati possono, da un lato, esacerbare ulteriormente i pregiudizi e, dall’altro, renderli più difficili da gestire.
In effetti, i dati locali dei partecipanti ad un sistema di apprendimento federato possono avere distribuzioni statistiche molto eterogenee (diversi volumi di dati, diverse rappresentazioni di alcuni gruppi demografici, ecc.). Un partecipante che contribuisce all’apprendimento federato con un grande volume di dati avrà maggiore influenza sul modello complessivo rispetto a un partecipante con un piccolo volume di dati. Se quest’ultimo si trova in una determinata area geografica che rappresenta un particolare gruppo sociale, ciò purtroppo non si rifletterà, o si rifletterà molto poco, nel modello complessivo.
Inoltre, la presenza di distorsioni nei dati di uno dei partecipanti in un sistema di apprendimento federato può far sì che questa distorsione si propaghi agli altri partecipanti attraverso il modello complessivo. Infatti, anche se un partecipante si è preso cura di disporre di dati locali imparziali, erediterà i pregiudizi presenti negli altri.
E più difficile da correggere
Inoltre, le tecniche classicamente utilizzate per prevenire e correggere i bias nel caso centralizzato non possono essere applicate direttamente all’apprendimento federato. In effetti, il classico approccio di correzione dei bias consiste principalmente nel preelaborare i dati prima dell’apprendimento automatico in modo che i dati abbiano determinate proprietà statistiche e quindi non siano più distorti.
Tuttavia, nel caso dell’IA decentralizzata e dell’apprendimento federato, non è possibile accedere ai dati dei partecipanti, né avere conoscenza delle statistiche complessive dei dati decentralizzati.
In questo caso, come affrontare i bias nei sistemi di intelligenza artificiale decentralizzati?
Misurare i bias dell’IA senza accesso a dati decentralizzati
Un primo passo è quello di essere in grado di misurare le distorsioni dei dati decentralizzati tra i partecipanti all’apprendimento federato, senza avere accesso diretto ai loro dati.
Insieme ai miei colleghi, abbiamo progettato un nuovo metodo per misurare e quantificare i bias nei sistemi di apprendimento federati, basato sull’analisi dei parametri dei modelli locali dei partecipanti all’apprendimento federato. Questo metodo ha il vantaggio di essere compatibile con la protezione dei dati dei partecipanti, pur consentendo la misurazione di diversi parametri di bias.
Catturare l’interdipendenza tra più tipi di pregiudizi e correggerli nell’intelligenza artificiale decentralizzata
Ma possono esserci anche diversi tipi di bias demografici, che variano a seconda di diversi attributi sensibili (sesso, razza, età, ecc.), e abbiamo dimostrato che mitigare un singolo tipo di bias può avere l’effetto collaterale dell’aumento di un altro tipo di pregiudizio. Sarebbe quindi un peccato se una soluzione per mitigare i pregiudizi razziali, ad esempio, causasse un’esacerbazione dei pregiudizi di genere.
Abbiamo quindi proposto un metodo multi-obiettivo per la misurazione completa dei bias e il trattamento congiunto e coerente di diversi tipi di bias che si verificano nei sistemi di apprendimento federati.
Informazioni sull’autore: Sara Bouchenak. Professore di Informatica – INSA Lyon, INSA Lyon – Università di Lione.
Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l’articolo originale.
Related News :