Un numero crescente di paesi utilizza sofisticati sistemi di elaborazione delle informazioni, compresa l’intelligenza artificiale (AI), per ottimizzare e accelerare l’analisi delle domande di immigrazione e asilo.
Pubblicato alle 6:00
“I governi spingono queste tecnologie senza sempre garantire che siano compatibili con i diritti fondamentali” delle persone interessate, avverte Petra Molnar, avvocato specializzato in immigrazione presso l’Università di York a Toronto.
La situazione è tanto più problematica, afferma, in quanto queste iniziative vengono generalmente lanciate senza consultazione pubblica.
“Spesso è proprio quando sono in atto, a causa di una procedura avviata da un avvocato o di un documento ottenuto da un giornalista, che si apprende della loro esistenza”, osserva M.Me Molnar, che ha documentato diversi casi problematici in un recente libro sull’argomento.
Analizza gli accenti
In particolare, spiega, la Germania utilizza software di analisi vocale per studiare gli accenti dei richiedenti asilo.
Il risultato serve per individuare le contraddizioni nelle loro testimonianze, anche se può esserci una notevole variabilità negli accenti da un individuo all’altro, sottolinea il ricercatore.
Nel 2019, Grecia, Ungheria e Lettonia hanno sperimentato software basati sull’intelligenza artificiale per cercare di analizzare le espressioni facciali delle persone che interagiscono con gli agenti di frontiera per determinare se stessero dicendo la verità.
L’esperimento, in parte finanziato dall’Unione Europea, ha suscitato polemiche e si è concluso dopo che sono stati segnalati errori significativi. Gli ideatori del software hanno concordato pubblicamente che rischiava di “minare i diritti fondamentali”.
I Paesi Bassi, dal canto loro, si sono impegnati ad analizzare le storie dei richiedenti asilo con l’intelligenza artificiale per trovare punti in comune con le richieste passate di accelerarne il trattamento.
Uno studio recente rileva che questo processo comparativo è rischioso poiché può portare gli agenti responsabili a concludere che una storia troppo simile viene copiata o che una storia troppo diversa non è realistica.
Il governo britannico è stato dal canto suo accusato di utilizzare un algoritmo che identifica “automaticamente” i migranti sui quali imporre misure repressive.
Tagliare corto le controversie
L’organizzazione Privacy International, che ha presentato diverse richieste di accesso alle informazioni su questo argomento, sostiene che il sistema è stato progettato in modo che il personale non possa contestare le raccomandazioni avanzate.
Madeleine Sumption, che dirige l’Osservatorio sulla migrazione dell’Università di Oxford, osserva che il governo britannico fornisce poche informazioni sulle sue iniziative in questo settore, rendendo difficile valutarne l’impatto.
L’uso di tecnologie come l’intelligenza artificiale nell’elaborazione delle domande di immigrazione non è inaccettabile a priori, sostiene.
«Ciò che conta è il modo in cui viene utilizzato e le linee guida messe in atto per controllarlo», nota il ricercatore, che ritiene importante mantenere un essere umano al centro del processo decisionale su temi delicati.
Facciamo un’analogia con il mondo medico. Quando ti verrà chiesto se il tuo medico debba essere sostituito da una macchina, risponderai di no. Ma quando ti viene chiesto se sei favorevole che il tuo medico abbia accesso a uno strumento che gli consenta di prendere una decisione migliore, risponderai di sì.
Madeleine Sumption, direttrice dell’Osservatorio sulla migrazione dell’Università di Oxford
L’uso dell’intelligenza artificiale rimane potenzialmente problematico, secondo MMe Per presunzione, poiché può risultare difficile comprendere su quali elementi si basa una determinata raccomandazione, complicando l’eventuale processo di ricorso.
Bias riprodotto dalla macchina
I dati utilizzati per “addestrare l’intelligenza artificiale” possono anche contenere pregiudizi che potrebbero poi essere riprodotti dal sistema, osserva.
MMe Molnar ritiene che dovrebbe essere posta una moratoria su questo tipo di utilizzo fino a quando non verrà messo in atto un sistema per prevenire le violazioni dei diritti umani.
In un rapporto prodotto con i colleghi dell’Università di Toronto nel 2018, il ricercatore ha espresso preoccupazione per il fatto che il governo canadese avesse intrapreso “esperimenti” per automatizzare parte del processo decisionale normalmente svolto dagli agenti dell’immigrazione.
L’Immigration and Refugee Board (IRB) ha precisato di aver adottato diversi “approcci innovativi” utilizzando “sofisticati sistemi analitici” per gestire “l’elevato volume” di domande da elaborare e migliorare questi servizi.
L’organizzazione ha rivelato, in un documento aggiornato nel 2023, che li utilizzava in particolare per smistare le domande di visto o per estrarre dati atti a facilitare il processo decisionale.
L’IRB ha affermato che “non ha stabilito limiti assoluti alle circostanze in cui l’automazione e l’intelligenza artificiale possono essere utilizzate” ma sta “adottando un approccio cauto” garantendo, tra le altre cose, che il suo personale mantenga il controllo sul processo decisionale.