DayFR Italian

“L’Europa rischia di dover accettare usi non etici dell’IA”

-

1. Quali sono i rischi etici?

Laetitia Pouliquen è preoccupata per le possibili conseguenze di questo massiccio investimento da parte degli Stati Uniti nell’intelligenza artificiale. “Grazie ai propri data center e all’accesso a un’enorme potenza di calcolo, gli Stati Uniti domineranno le tecnologie di intelligenza artificiale negli anni a veniredichiara. Gli americani potrebbero addirittura mettere fuori gioco la Cina. Da parte sua, l’Europa è già in disparte. Temo quindi che il ritardo tecnologico dell’Europa la porti ad accettare usi non etici dell’intelligenza artificiale, sviluppata negli Usa”..

E per citare le applicazioni di sorveglianza o addirittura gli impianti intracerebrali drogati con l’intelligenza artificiale. “Questo tipo di impianti può controllare il pensiero ed è già stato testato sugli animaliha precisato Laetitia Pouliquen. Permettono, ad esempio, di dare la sensazione di fame ad un animale che ha appena mangiato e di incoraggiarlo a mangiare..

“È fondamentale specificare all’AI che non deve fare commenti razzisti o sessisti”

I timori di questo esperto, relativi ad usi non etici dell’IA, provengono in particolare dalla personalità di Sam Altman, il capo di OpenAI, la società dietro ChatGPT. Sarà infatti OpenAI ad occuparsi della gestione operativa della struttura realizzata nell’ambito dell’accordo da 500 miliardi di dollari. “Sam Altman ha più volte annunciato l’avvento dell’IA generale AGIelabora. Si tratta di un’intelligenza artificiale che diventerebbe autonoma e avrebbe quindi la capacità di fare cose per le quali non è stata sviluppata. Poteva, in qualche modo, pensare da sola. Vediamo tutti gli eccessi che tale intelligenza artificiale potrebbe causare”..

Laetitia Pouliquen si rammarica del fatto che l’Europa non sia stata in grado di sviluppare maggiori competenze tecnologiche nel campo dell’intelligenza artificiale. “C’erano aziende europee promettenti nel settore, come MistralAI o OVH, ma negli anni passati non sono state sufficientemente supportate per ottenere un effetto di scala.dichiara. Ora l’Europa si trova in una situazione in cui non ha grandi attori globali e nessuna sovranità su tecnologia e infrastrutture. Tutto ciò che resta sono le norme legali”..

gabbiano

“Non raggiungeremo mai gli Stati Uniti nella loro corsa al gigantismo e ai miliardi. Non ha senso cercare di sviluppare un ChatGPT europeo”.

Accoglie tuttavia con favore l’attuazione dell’AI Act, la legislazione europea che disciplina l’intelligenza artificiale. “Anche se non è perfetto, questo testo fornisce una certa protezionedichiara Laetitia Pouliquen. Il problema è che tutto il mondo si prende gioco dell’AI Act perché l’Europa fornisce un quadro giuridico restrittivo per le tecnologie che non possiede. Sarà quindi difficile per lei resistere al potere degli Stati Uniti in questo settore. Colpisce anche il contrasto tra la legge sull’AI e il regolamento generale sulla protezione dei dati. In effetti, il GDPR europeo è stato emulato in tutto il mondo”.

L’intelligenza artificiale potrebbe sconvolgere completamente il mercato del lavoro nel 2025

Come spiegarlo? Secondo l’esperto, le considerazioni etiche hanno perso terreno dopo l’adozione del GDPR, salutato come una novità mondiale in termini di protezione dei dati privati ​​delle persone. “Inizialmente c’erano una cinquantina di persone che lavoravano sull’etica in Microsoft, aggiungere Laetitia Pouliquen. Oggi non c’è più nessuno perché ritiene di aver fatto la sua parte per riflettere sull’etica. E da parte degli utenti di Internet, il GDPR ha fatto sì che essi siano diventati meno vigili e più propensi ad accettare i cookie rispetto a prima, pensando che la legislazione li protegga in ogni caso. Lo stesso vale per l’IA generativa: all’inizio mettiamo in discussione i risultati prodotti da un’IA generativa poi gradualmente, probabilmente per pigrizia, non mettiamo più in discussione le fonti e prendiamo la risposta proposta da ChatGPT..

2. Come dovrebbe reagire l’Europa?

“Non raggiungeremo mai gli Stati Uniti nella loro corsa al gigantismo e ai miliardidichiara Benjamin Pajot. Non ha senso cercare di sviluppare un ChatGPT europeo. D’altro canto, dobbiamo definire a cosa è destinata l’intelligenza artificiale in Europa e sviluppare modelli di intelligenza artificiale per usi specifici..

Invece di competere con i colossi americani e asiatici, l’Europa ha scelto la propria strategia per il futuro tecnologico

3. Perché questo investimento statunitense?

Secondo Benjamin Pajot OpenAI voleva diventare più indipendente dal partner Microsoft e trovare nuovi motori di crescita. “Comincia a porsi la questione della redditività dei grandi investimenti nell’intelligenza artificialespiega. ChatGPT è stato spinto ai suoi limiti. OpenAI deve quindi trovare nuovi usi per l’IA al di fuori del grande pubblico. Per questo ha bisogno di più dati e di più potenza di calcolo”.

Related News :