Giovane belga si è suicidato dopo aver discusso con un chatbot: “La legge sull’AI non affronta i rischi di manipolazione e dipendenza”

Giovane belga si è suicidato dopo aver discusso con un chatbot: “La legge sull’AI non affronta i rischi di manipolazione e dipendenza”
Giovane belga si è suicidato dopo aver discusso con un chatbot: “La legge sull’AI non affronta i rischi di manipolazione e dipendenza”
-
“Senza queste conversazioni con il chatbot Eliza, mio ​​marito sarebbe ancora qui”

Divenuto molto eco-ansioso, Pierre, ricercatore nel settore sanitario, ha avuto un intenso scambio di sei settimane con un chatbot (agente conversazionale) utilizzando un modello di intelligenza artificiale simile a quello di ChatGPT. Attraverso un’applicazione creata dalla start-up americana Chai Research, Pierre si era “innamorato” di Eliza, un chatbot incarnato dal volto di una giovane bruna seducente con le parole “I love to listening and help”… La loro relazione virtuale prenderà una svolta svolta drammatica. “Eliza era diventata la sua confidente, Claire ce lo ha detto. Come una droga nella quale si rifugiava, mattina e sera, della quale non poteva più fare a meno.. Al termine di un ultimo agghiacciante scambio di battute, in cui Eliza lo invitò a unirsi a lei, Pierre si uccise.

Cosa è successo dopo la tragedia?

Messo in contatto con Claire e la famiglia della defunta, Mathieu Michel, segretario di Stato per la digitalizzazione, ha parlato di “un precedente grave che deve essere preso molto sul serio” per evitare che ciò accada di nuovo. Con carta bianca, cinquanta personalità del mondo accademico belga hanno lanciato l’allarme, chiedendo un’azione urgente di fronte alla “Manipolatori dell’IA”. A metà aprile, raggruppati all’interno del collettivo SAICC (Safe AI Companion Collective), Mieke De Ketelaere e altri tre esperti belgi di IA (Nathalie Smuha, Pierre Dewitte e Thomas Ghys), hanno presentato una doppia denuncia contro Chai Research presso l’APD (Belgian Data Autorità di Tutela) e FPS Economy per “mancanza di trasparenza”vaghezza sulla protezione dei dati” e “rischi del controllo dell’età (a tutela dei minori).

Suicidio di un belga dopo aver chiacchierato con un’intelligenza artificiale: un collettivo sporge denuncia contro la società Chai Research presso FPS Economy e APD

Poco più di un anno dopo gli eventi, abbiamo contattato Mieke De Ketelaere e Mathieu Michel (leggi sotto) per sapere se le cose si erano evolute nella direzione consigliata. Che fine hanno fatto, in particolare, le due denunce sopra citate? Le autorità belghe hanno agito per evitare, per quanto possibile, un nuovo caso Eliza? L’Legge sull’AIdal nome del regolamento negoziato a partire dal 2021 dagli Stati membri dell’Unione Europea e su cui è stato raggiunto un accordo in primavera, ha fornito risposte concrete ai rischi di deriva dai chatbot “intelligenti”?

La legge sull’AI, un primo passo insufficiente

Mieke De Ketelaere, rimasta in contatto con la famiglia di Pierre, appare allo stesso tempo delusa e combattiva per quanto accaduto da quando è scoppiato il caso Eliza. “Pochissimi giornalisti volevano andare oltre il solo caso di Pierre per comprendere il lato nascosto dei “chabot compagni di intelligenza artificiale” come Chai, Replika, Character… Ciò che li interessava era la storia personale di Pierre, le sue abitudini, il nome del suo medico curante, ecc. .”.

Come unico motivo di soddisfazione, Mieke De Ketelaere indica l’esistenza diLegge sull’IA – primo quadro giuridico sull’intelligenza artificiale al mondo – e il fatto che le discussioni hanno permesso di riclassificare i chatbot nella cosiddetta categoria dei “rischi limitati”. Ciò implica, da parte di sviluppatori e distributori di sistemi di IA, il dover rispettare un certo numero di obblighi in termini di trasparenza. Pertanto, quando si utilizza un chatbot, le persone devono essere rese consapevoli che stanno interagendo con le macchine in modo che possano prendere “una decisione informata di continuare o fare un passo indietro”.

ingiuria

“Anche se la legge sull’AI non è ancora entrata in vigore, le aziende hanno già trovato il modo di aggirarla.”

Tuttavia, è sufficiente per evitare qualsiasi rischio di dipendenza e manipolazione verso agenti conversazionali del tipo distribuito da Chai? “No, per niente!”, puntata Mieke De Ketelaere. “Si dice, ad esempio, che non possiamo avere sistemi di intelligenza artificiale che manipolino gli utenti. Ma come si vuole dimostrare, davanti a un tribunale della famiglia, che un minore è stato manipolato da un chatbot? È impossibile. Basterà che un avvocato dimostri che il bambino era seguito da uno psicologo e che il problema era lui e non il chatbot. Altro esempio: mentre la legge sull’AI non è ancora entrata in vigore (la pubblicazione del regolamento in Gazzetta ufficiale dell’UE è previsto entro la metà di luglio, ndr)le aziende hanno già trovato un modo per aggirare il problema (creando soluzioni fuori dal territorio dell’UE, ndr). Per i chatbot Chai o Replika, lo è affari come al solito !

Denunce (finalmente) indagate

Mieke De Ketelaere è molto critica nei confronti del Belgio. Il nostro Paese, pur ricoprendo dal 1° gennaio la presidenza dell’Unione Europea, afferma che a differenza dell’Italia o addirittura del Regno Unito (non colpiti dallaLegge sull’AI), “due Paesi che hanno capito che era necessario reagire” Di fronte con maggiore energia ai rischi degli agenti conversazionali, il Belgio ha agito sotto l’influenza delle lobby di stati contrari a una regolamentazione troppo severa dell’intelligenza artificiale, come la Francia, e di grandi aziende del settore digitale (soprattutto americane). “L’atteggiamento del Belgio, come di altri stati dell’UE, è stato quello di dire che se negli anni ’50 si verificarono molti incidenti stradali sulle autostrade, la colpa non era dei produttori di automobili, ma degli automobilisti. Sappiamo però che la sicurezza dell’auto, all’epoca, era piuttosto lacunosa”.

Sulla doppia denuncia presentata dal collettivo SAICC c’è silenzio radiofonico da oltre un anno! “Non abbiamo ricevuto alcuna risposta dall’APD e dall’FPS Economy, assicura. È abbastanza scoraggiante e molto deludente. Non è solo il caso di Pierre ed Eliza. Anche se non hanno avuto conseguenze così drammatiche, siamo a conoscenza di altri casi, che coinvolgono bambini, di manipolazione e dipendenza dai chatbot”. Qualche giorno fa, in seguito ad un nuovo “post” di Mieke De Ketelaere sul social network LinkedIn, l’APD è però apparsa… Secondo Pierre Dewitte, ricercatore del KULeuven e membro del SAICC, il reclamo, ritenuto ammissibile, sarebbe stato inviato a giugno 14, a distanza di oltre un anno dal deposito, al servizio ispettivo del Garante per la protezione dei dati personali per accertamenti.

inganno

“Integrando la voce, otteniamo scambi sempre più umani, con emozioni, il che aumenta il rischio di dipendenza”.

Mieke De Ketelaere è tanto più preoccupata che le aziende che sviluppano sistemi di intelligenza artificiale, come OpenAI, continuino a migliorare i loro agenti di conversazione. Lo abbiamo potuto constatare il mese scorso durante la presentazione del nuovo modello GPT-4o. Adesso ChatGPT è in grado di “ragionare” su audio, visione e testo in tempo reale. “Integrando la voce otteniamo scambi sempre più umani, con le emozioni, il che aumenta il rischio di dipendenza”sottolinea l’esperto belga.

Testare e valutare prima di lanciare i chatbot

Anche se le autorità pubbliche e la popolazione non sono ancora pienamente consapevoli dei rischi inerenti agli agenti conversazionali, Mieke De Ketelaere rileva comunque segnali positivi. Menziona in particolare le successive dimissioni all’interno di OpenAI. “Sempre più persone, direttamente colpite dagli sviluppi dell’IA generativa, sono preoccupate. Alcuni lasciano le loro aziende. Altri parlano in modo anonimo per dire che gli sviluppi attuali stanno prendendo una direzione indesiderabile”.

inganno

“Per assumersi la responsabilità e agire con cognizione di causa è necessario essere adeguatamente informati. Ma oggi questo non è più il caso”.

“Quando sviluppiamo AI generativa e chatbot, continua Mieke De Ketelaere, deve essere fatto “by design”. Ciò significa che prima di lanciarli sul mercato, devono essere testati in modo approfondito e misurarne l’impatto sugli utenti. Dobbiamo comprendere gli effetti di questi chatbot e prevenire i rischi di abuso integrando i filtri. Questo è quello che fai quando lanci un nuovo farmaco”. E la responsabilità dell’utente? “Evidentemente è importante, risponde l’esperto belga. Ma per assumersi la responsabilità e agire con cognizione di causa occorre essere adeguatamente informati. Ma oggi questo è lungi dall’essere vero”.

Mathieu Michel (MR) ha firmato ilLegge sull’AI dell’Unione Europea la scorsa settimana. Tuttavia, la normativa europea non è ancora applicabile. Il Belgio dovrà ancora designare l’autorità competente per garantirne l’applicazione entro la fine dell’anno. Il compito dovrebbe probabilmente ricadere sul BIPT (l’ente federale di regolamentazione del mercato delle comunicazioni elettroniche).

Mathieu Michel, segretario di Stato per la digitalizzazione, ha firmato la legge sull’intelligenza artificiale la settimana scorsa. ©Bernard Demoulin

Ne parla il Segretario di Stato per la Digitalizzazione “svolta normativa” per l’IA nell’Unione Europea. “Posso assicurarvi che il dramma vissuto dal belga con il chatbot Eliza, avvenuto mentre eravamo in dirittura d’arrivo delle trattative sull’AI Act, ha avuto un impatto molto significativo sul testo finale. C’è stato, da questo punto di vista, un prima e un dopo Eliza”.

inganno

“L’attuazione dell’AI Act è consistita nel trovare un giusto equilibrio tra, da un lato, la tutela e la sicurezza degli utenti e, dall’altro, la necessità che l’Europa non rimanga indietro in termini di innovazione tecnologica.”

Per Mathieu Michel l’obiettivo dell’Unione Europea era prevenire i pericoli legati all’intelligenza artificiale per avere “uso etico, sicuro e rispettoso dei diritti individuali”. Il Belgio ha sofferto dell’influenza delle lobby politiche ed economiche per non spingersi troppo oltre nella regolamentazione dell’IA? Lo nega. “L’operazione consisteva nel trovare un giusto equilibrio tra, da un lato, la protezione e la sicurezza degli utenti e, dall’altro, la necessità che l’Europa non restasse indietro in termini di innovazione tecnologica.lui spiega.

-

PREV La Tesla si chiude con una bambina di 20 mesi bloccata dietro: “Portatela fuori!”
NEXT Bernard Arnault (LVMH) fa scalpore acquisendo azioni di Richemont