DayFR Italian

“La corsa al modello più grande non dovrebbe essere l’obiettivo finale del settore” (Linda Griffin, Mozilla)

-

“La regolamentazione uccide l’innovazione. » Questo ritornello è tornato in vigore nei discorsi delle Big Tech delle ultime settimane. Meta, Apple e OpenAI minacciano di non implementare i loro modelli di IA generativa nell’Unione Europea, a giudicare dalle normative” incoerente » e troppo restrittivo. Mozilla, pioniere del web e sostenitore dell’open Source, ha una posizione diversa. Coinvolta nello sviluppo dell’AI Act dal 2019 e attiva nell’organizzazione del futuro Summit di Parigi, la fondazione difende un’AI “al servizio dell’interesse pubblico”veramente trasparente e aperto. Lo ha spiegato con Linda Griffin, vicepresidente delle politiche pubbliche di Mozilla.

LA TRIBUNA – Di recente, Meta e circa altre 30 aziende hanno firmato una lettera in cui avvertivano l’Europa del rischio di smantellamento a causa di normative incoerenti sull’intelligenza artificiale. Qual è la tua posizione su questo argomento?

LINDA GRIFFIN- Questa lettera sembra una presentazione di vendita. Hanno il diritto di difendere le loro attività, ma affermare che difendono l’economia e l’innovazione in generale mi sembra inappropriato. La regolamentazione può effettivamente rallentare le loro attività in Europa, ma consente anche alle organizzazioni più piccole di emergere e impedisce la monopolizzazione del settore da parte di pochi attori. Sostenendo che la regolamentazione uccide l’innovazione, creano una visione binaria che non esiste. Al di là delle questioni economiche, la trasparenza dell’IA è fondamentale, in particolare per la tutela della privacy e del diritto d’autore. La corsa per il modello linguistico più grande non dovrebbe essere l’obiettivo finale di questo settore.

AI: il vero motivo delle critiche di Meta alla regolamentazione europea

Quale pensi che dovrebbe essere l’obiettivo?

Vogliamo fare per l’intelligenza artificiale ciò che abbiamo fatto per Internet 30 anni fa. Negli anni ’90 Mozilla ha lottato per impedire a Microsoft di imporre il proprio browser [Internet Explorer, Ndlr] a tutti gli utenti e per offrire alternative open Source senza scopo di lucro. Oggi assistiamo a una dinamica simile di concentrazione del potere, in cui le tecnologie vengono sviluppate principalmente a scopo di lucro, non per l’interesse pubblico. Questo è il motivo per cui difendiamo lo sviluppo dell’intelligenza artificiale al servizio di questo interesse collettivo. [l’entreprise vient de publier un rapport à ce sujet, Ndlr].

Lavoriamo alla legge sull’AI dal 2019 e nell’ultimo anno abbiamo intensificato i nostri sforzi sull’argomento. Nel 2023 abbiamo lanciato Mozilla Ventures, un fondo di investimento, nonché un laboratorio di ricerca sull’intelligenza artificiale, che ha già dato vita a tre progetti sperimentali. Stiamo inoltre partecipando ai gruppi di lavoro dell’AI Action Summit, in programma a febbraio a Parigi.

Meta oggi mette in luce l’open Source, una filosofia cara a Mozilla. È una buona notizia?

Per Meta, l’open Source si limita a consentire agli utenti di scaricare gratuitamente un modello sul proprio hardware. Ma l’open Source va oltre: deve consentire l’accesso all’intero codice, per poterlo modificare. Meta ha reso popolare il termine “ fonte aperta ”, ma cambiandone il significato, cosa che ha causato danni alla comunità open Source. Sosteniamo che venga chiarito cosa sia l’open Source nel campo dell’intelligenza artificiale, come è stato fatto per il software.

L’Open Source Initiative (OSI) ha pubblicato una prima definizione in agosto. Ciò specifica in particolare che l’IA open Source può essere utilizzata liberamente per qualsiasi scopo e che i suoi componenti e il suo funzionamento devono poter essere esaminati. Questo è un buon primo passo, che noi sosteniamo. Questa definizione dovrà poi essere perfezionata. Non siamo puristi per principio, ma perché crediamo che l’open Source sia essenziale.

Per detronizzare i giganti dell’IA, Mistral AI sta dragando il mondo dell’open Source

Perché è così importante?

Questo è ancora più cruciale rispetto al software tradizionale. Il software segue un comportamento prevedibile, ma con il apprendimento automaticoe più in particolare l’IA generativa, è molto più complessa. Il modello apprende da determinati dati e non è programmato per un compito specifico. Senza accesso al codice e ai dati di addestramento, è impossibile capire come funziona. Proteggendo queste informazioni e rifiutando la regolamentazione, Big Tech chiede ai cittadini e ai governi di fidarsi ciecamente di loro, il che è una strategia rischiosa.

L’industria dell’intelligenza artificiale rimane molto opaca quando si tratta di dati di addestramento. Per quello ?

I dati sono potere. Le aziende quindi non hanno alcun interesse a rivelare cosa c’è sotto il cofano. Con la legge sull’AI i fornitori di modelli IA generici saranno soggetti a obblighi di trasparenza riguardo ai set di dati utilizzati per l’addestramento dei loro modelli. Quando la normativa entrerà in vigore, tra circa un anno e mezzo, alcuni di questi dati saranno resi pubblici. Probabilmente includeranno contenuti protetti da copyright, il che potrebbe comportare azioni legali. Mantenendo segrete queste informazioni, le aziende mantengono il controllo il più a lungo possibile. Questa corsa al modello linguistico più grande ci spinge ad accumulare sempre più dati, senza pensare all’utilizzo di set di dati più trasparenti e di migliore qualità. È una corsa al ribasso.

Gara AI: OpenAI è davvero in pari con la concorrenza?

Mozilla si batte per un Internet libero e aperto, ma oggi i social network, che dominano lo spazio online, non rispettano realmente questi principi. Come possiamo sperare di vincere questa battaglia per l’intelligenza artificiale?

I governi sono consapevoli di aver perso qualcosa con i social network, non regolamentandoli in tempo. Oggi ne vediamo le conseguenze, in particolare sulla salute mentale dei giovani. Le autorità sono determinate a non ripetere gli stessi errori con l’intelligenza artificiale.

State partecipando attivamente all’organizzazione del prossimo Summit di Parigi sull’intelligenza artificiale. Cosa ti aspetti da questo evento?

Gli organizzatori del vertice di Parigi si sono sforzati di includere voci diverse sull’intelligenza artificiale. Il precedente vertice nel Regno Unito non ha coinvolto sufficientemente i rappresentanti della società civile. Si era concentrato troppo sui rischi esistenziali per l’umanità che l’intelligenza artificiale poteva presentare, un’ossessione di un piccolo gruppo di uomini le cui voci sono diventate troppo importanti. Dove sono le prove di questi rischi? D’altro canto, esistono ampie prove che dimostrano come gli algoritmi stiano già influenzando la vita delle persone, rafforzando pregiudizi, stereotipi di genere e razziali e amplificando la discriminazione. Il vertice di Parigi sta finalmente affrontando questi problemi.

“I giganti dell’intelligenza artificiale sono meno interessati ai pregiudizi sessisti e razzisti che alla corsa per la prestazione” (Margaret Mitchell, Hugging Face)

Related News :