Come proteggere la democrazia nell’era dei video deepfake?

Come proteggere la democrazia nell’era dei video deepfake?
Come proteggere la democrazia nell’era dei video deepfake?
-

Con l’avvicinarsi delle elezioni statunitensi del 2024, una nuova pericolosa ondata di disinformazione generata dall’intelligenza artificiale (IA) sta travolgendo il panorama digitale, alzando la posta in gioco più che mai.

In un’epoca in cui le informazioni plasmano l’opinione pubblica, incombe una domanda cruciale: possiamo fidarci delle informazioni che plasmano la nostra realtà? La disinformazione, che spazia dai titoli di notizie false (come un post casuale su Facebook in cui qualcuno accusa un immigrato haitiano di aver rubato e mangiato il gatto dell’amico della figlia del suo vicino) ai video deepfake (falsi profondi) — come quella di Elon Musk nelle truffe sulle criptovalute — ha il potenziale di seminare confusione, aumentare la polarizzazione e minare le fondamenta stesse della democrazia.

Cosa c’è di veramente insidioso nelle fake news e falsi profondiè il loro sfruttamento di una vulnerabilità chiave nella psicologia umana: le emozioni delle persone. Gli studi dimostrano che quando una persona è carica emotivamente, positivamente o negativamente, è più probabile che condivida contenuti senza valutarli criticamente.

Secondo un’analisi del 2019, l’8,5% degli utenti di Facebook ha condiviso almeno una notizia falsa durante la campagna elettorale statunitense del 2016. falsi profondiche manipolano l’aspetto delle persone reali con una precisione inquietante, portano il tutto a un livello superiore, confondendo il confine tra verità e finzione.

Immagina un video virale di un personaggio pubblico che fa un discorso divisivo che poi si rivela falso. Quando la verità viene a galla, il danno è fatto: la reazione emotiva ha già approfondito le divisioni, tratto in inganno il pubblico, generato in modo spurio un sostegno per una causa.

Secondo un articolo pubblicato di recente da Forbespiù di mezzo milione di video deepfake circolavano sui social media nel 2023, una cifra che riflette il fatto che le piattaforme hanno difficoltà a rilevare i contenuti falsi abbastanza rapidamente da impedirne la diffusione virale. Il ritmo rapido del consumo dei social media aggrava questo problema: la natura interattiva delle piattaforme accelera la velocità con cui questi falsi profondi vengono visualizzati e condivisi dagli utenti; ciò avviene quasi in tempo reale. Man mano che i deep fake diventano più sofisticati, diventeranno inevitabilmente più difficili da rilevare e controllare, e le bugie continueranno a diffondersi più velocemente di quanto si possano apportare correzioni.

Quindi cosa possiamo fare per proteggerci dalla loro crescente minaccia?

Una soluzione promettente sono gli algoritmi emotivamente intelligenti, sistemi di intelligenza artificiale progettati per rilevare e declassare i contenuti manipolativi. Questi sistemi imparerebbero a segnalare i contenuti che mirano a ingannare o manipolare emotivamente gli utenti prima che diventino virali. Mentre piattaforme come Facebook e X stanno facendo progressi in questa direzione, questo tipo di tecnologia è ancora in ritardo rispetto alla rapida evoluzione di falsi profondiCiò di cui abbiamo bisogno sono sistemi di intelligenza artificiale in grado di operare in tempo reale, apprendere modelli di interazione degli utenti e rilevare i deepfake non appena compaiono.

Un altro approccio è la tecnologia blockchain ((catena di blocchi)che potrebbe offrire un modo per verificare l’autenticità di video e immagini creando una registrazione immutabile delle loro origini. Le piattaforme potrebbero usare questa tecnologia per garantire che gli utenti possano risalire alla fonte del contenuto. Sebbene ancora in fase di sviluppo, la verifica tramite catena di blocchi potrebbe svolgere un ruolo nel distinguere tra il reale e il falsi profondi generato dall’intelligenza artificiale.

Infine, devono essere implementate normative e politiche più severe, in particolare per quanto riguarda la creazione e la diffusione di deepfake. La legge del 2019 della California che vieta i deepfake falsi profondi progettato per fuorviare i cittadini durante le campagne elettorali è un buon inizio, ma abbiamo bisogno di una legislazione globale e completa per affrontare davvero il problema. Una soluzione potrebbe includere l’obbligo di filigranare o firmare digitalmente i contenuti generati dall’intelligenza artificiale per distinguere tra contenuti veri e falsi.

I deep fake rappresentano una minaccia reale per i processi democratici. Gli algoritmi emotivamente intelligenti e la tecnologia blockchain offrono speranza, ma la soluzione in ultima analisi risiede in una combinazione di tecnologia, istruzione e regolamentazione.

L’avvertimento della vincitrice del premio Nobel per la pace Maria Ressa sull’erosione della fiducia nei media e nelle istituzioni sembra particolarmente acuto oggi. Come ha detto così opportunamente: “Senza fatti, non puoi avere la verità. Senza verità, non puoi avere fiducia. Senza fiducia, non abbiamo una realtà condivisa, nessuna democrazia, e diventa impossibile affrontare i problemi esistenziali del nostro mondo”.

Da vedere in video

-

NEXT Lézat-sur-Lèze. Grande successo per la Giornata del Patrimonio