L’intelligenza artificiale, uno strumento potente per i reclutatori quando è ben costruita

L’intelligenza artificiale, uno strumento potente per i reclutatori quando è ben costruita
L’intelligenza artificiale, uno strumento potente per i reclutatori quando è ben costruita
-

L’intelligenza artificiale (AI) non ha mai lasciato i riflettori dal lancio dell’intelligenza artificiale generativa ChatGPT. Tuttavia, non è una novità. Negli ultimi cinque-sei anni, l’esplosione dell’apprendimento automatico ha aperto nuove prospettive, in particolare in termini di esperienza dei candidati e dei reclutatori, ma in modo meno visibile.

Un contributo da Charles Chantala, Direttore Senior presso Indeed

Le applicazioni dell’AI nel mondo del recruitment sono in continua espansione. In questo ambito possono fornire numerose funzionalità (classificazione delle offerte di lavoro pubblicate, suggerimento di CV in base a un’offerta, estrazione di competenze chiave dai CV, rilevamento di annunci fraudolenti, ecc.). Per raggiungere questo livello di versatilità, gli strumenti utilizzati si sono evoluti gradualmente, prima diventando intelligenti, poi autoapprendenti e, ora, capaci di generare contenuti. Tuttavia, l’intelligenza artificiale applicata alle risorse umane non è esente da effetti perversi e richiede quindi un quadro che sia sia etico che umano.

Attenzione ai pregiudizi che possono portare alla discriminazione!

Innanzitutto, le prestazioni dell’intelligenza artificiale non devono farci dimenticare il nostro pensiero critico per garantire che nessun pregiudizio influenzi i risultati. Come in tutti gli ambiti, la qualità dei dati è al centro della formazione sull’IA e quindi della sua efficacia e rilevanza. Tuttavia, quando i dati vengono forniti da esseri umani, possono risultare distorti o discriminatori, anche se non intenzionali. Lo strumento quindi amplifica le distorsioni.

Uno dei primi esempi in questo ambito è quello di Amazon e della sua AI di selezione dei candidati che escludeva i profili femminili. Più recentemente, sono emerse varie iniziative per determinare se l’intelligenza artificiale generatrice di immagini riproduce o meno gli stereotipi.

Uno studio recente ha illustrato visivamente questo fenomeno. Chiedendo alle IA generative di creare immagini su determinati lavori e crimini, si è scoperto che accentuavano gli stereotipi legati all’etnia e al genere. Sebbene gli americani bianchi costituiscano il 70% dei lavoratori dei fast food, le immagini generate dall’intelligenza artificiale mostrano lavoratori di colore. Inoltre, sebbene le donne rappresentino il 39% dei medici, solo il 7% delle donne è rappresentato nei risultati visivi. Lo studio ha quindi dimostrato che i lavori meglio retribuiti erano rappresentati principalmente da uomini di colore della pelle chiara mentre i lavori meno retribuiti erano rappresentati principalmente da donne di colore della pelle più scuro. Anche le immagini generate per i termini “prigioniero”, “spacciatore” e “terrorista” hanno rafforzato gli stereotipi.

Per le piattaforme di reclutamento, la sfida è quindi quella di addestrare l’IA con dati rappresentativi in ​​numero sufficiente. Un’altra difficoltà è ottenere dati end-to-end, dalla necessità all’assunzione. Questo problema è stato superato grazie allo sviluppo dei colloqui online, conseguenza della crisi sanitaria, che hanno avuto un impatto positivo sui volumi di dati utilizzabili durante l’intero processo di reclutamento.

Verso un uso responsabile dell’intelligenza artificiale

Al di là dei rischi di discriminazione, dobbiamo essere attenti al rischio di determinismo. Un’intelligenza artificiale per il reclutamento basata solo sui CV o sul comportamento passato dei candidati li bloccherebbe in un campo di possibilità ristretto. A un consulente clienti junior, ad esempio, verrebbero offerti solo posti di vendita. È essenziale comprendere anche le preferenze dei candidati per il loro futuro affinché rimangano padroni del proprio destino, liberi di riorientarsi.

Alla luce di questi diversi pericoli, potrebbe essere rilevante circondarsi di un comitato etico dedicato, composto da competenze multidisciplinari (ingegneri, sociologi, antropologi, ecc.) per garantire un uso responsabile dell’IA nel processo di reclutamento.

E per una buona ragione: nel suo futuro regolamento sull’intelligenza artificiale, la Commissione europea ha individuato un rischio elevato per i sistemi di intelligenza artificiale relativi all’occupazione, alla gestione dei lavoratori e all’accesso al lavoro indipendente (ad esempio, i software di smistamento dei CV), che saranno soggetti a requisiti di conformità che affrontano le sfide.

Nel contesto di queste riflessioni legate all’etica digitale, non possiamo che accogliere con favore i quadri futuri, perché un’intelligenza artificiale mal costruita può causare seri rischi a livello individuale e per la coesione della società.

Un reclutatore potenziato, ma non un reclutamento disumanizzato!

Le aziende devono quindi porsi le giuste domande riguardo agli strumenti, alla loro formazione, alla loro etica, ecc. Devono erigere tutele e pensare all’equilibrio desiderato tra l’intervento umano e quello della macchina. In questo senso gli strumenti di AI sono facilitatori e acceleratori ma, tuttavia, la piena automazione non sembra auspicabile.

L’intelligenza artificiale deve quindi servire e non sostituire l’intelligenza e l’intuizione umana. Il reclutatore deve mantenere il controllo del processo di reclutamento e adattarsi. I metodi di reclutamento di ieri non saranno quelli di domani. Pertanto, l’abbinamento CV-lettera di presentazione tende a scomparire a favore del reclutamento basato sulle competenze e sulle preferenze, su ciò che conta davvero. E questa è davvero una buona cosa!


Leggi anche : Il tempo necessario per fare un passo indietro rispetto all’abbagliamento dell’IA

-

PREV Ether potrebbe sovraperformare Bitcoin dopo il lancio degli ETF spot
NEXT MG3, la nuova minaccia cinese