Questo strumento di intelligenza artificiale aiuta i giornalisti a rilevare e contrastare i deepfake

Questo strumento di intelligenza artificiale aiuta i giornalisti a rilevare e contrastare i deepfake
Questo strumento di intelligenza artificiale aiuta i giornalisti a rilevare e contrastare i deepfake
-

La personalizzazione dei social media ha ampliato la portata e il potere della disinformazione.

Reso popolare dall’ascesa di TikTok e della sua pagina “For You” – un flusso infinito di contenuti ancorati agli interessi degli utenti, determinati dalle informazioni raccolte dalla cronologia di navigazione, dai coinvolgimenti e dalla localizzazione – piattaforme come Instagram, YouTube e X hanno adottato il modello e creato le proprie versioni. Instagram ha iniziato a mostrare i post consigliati sul suo feed principale nel 2018 e nel 2020 ha implementato Reels, una funzionalità di brevi video simile a TikTok. YouTube ha lanciato Shorts, un concetto simile, lo stesso anno e X ha aggiunto la propria scheda “For You” all’inizio del 2024.

Questi sviluppi hanno trasformato il modo in cui gli utenti consumano i contenuti sui social media, afferma Sejin Paik, product manager di TrueMedia.org. “Non importa chi segui, otterrai contenuti in base a ciò che pensa il loro sistema”, afferma.

In questo ambiente digitale, le informazioni false convivono con contenuti reali, dando origine a deepfake, immagini iperrealistiche o video manipolati artificialmente per mostrare qualcuno che fa o dice qualcosa. Con l’avvicinarsi delle elezioni americane del 2024, video deepfake che mostrano discorsi mai pronunciati, foto delle guardie del corpo dei servizi segreti di Donald Trump che sorridono dopo l’aggressione contro di lui a luglio e immagini dello schermo di articoli di notizie che diffondevano informazioni false sulle elezioni sono apparsi insieme a informazioni legittime , confondendo i confini tra ciò che è reale e ciò che non lo è.

Man mano che le tecnologie di generazione dell’intelligenza artificiale si sviluppano, diventano più facili da usare e più accessibili, diventa sempre più difficile valutare l’autenticità dei post sui social media. Uno strumento di rilevamento AI creato da TrueMedia mira ad aiutare identificando i segni di foto e video manipolati pubblicati sui social media.

Deepfake e disinformazione

L’esperto di intelligenza artificiale Oren Etzioni ha fondato TrueMedia nel gennaio 2024, motivato dalle sue preoccupazioni sull’impatto dell’intelligenza artificiale in questo anno elettorale. TrueMedia è un’organizzazione senza scopo di lucro composta da ricercatori, ingegneri e scienziati sociali. Il suo obiettivo è creare una tecnologia che affronti le questioni sociali, che MMe Paik la chiama “sociotecnologia”.

Man mano che le tecnologie sono diventate disponibili al pubblico, i contenuti generati artificialmente sono proliferati come strumento di manipolazione politica e i giornalisti temono che il loro impatto non potrà che aumentare man mano che migliora.

Il modello di pagina “For You” offre a questa disinformazione più sofisticata una portata più ampia, afferma la Paik. I post guadagnano popolarità sfruttando algoritmi che decidono cosa è popolare, indipendentemente dagli account dietro di essi. Le informazioni presentate nei feed degli utenti generalmente corrispondono ai loro interessi e convinzioni e il contenuto visualizzato, reale o meno, è personalizzato per generare Mi piace e condivisioni che espandono le reti raggiunte.

I deepfake hanno un potenziale enorme in questo ambiente. Possono raffigurare qualsiasi cosa, da Papa Francesco in abiti firmati a interi bollettini di notizie false, e il loro utilizzo sta crescendo in modo esponenziale: più di 500.000 deepfake sono stati condivisi nel 2023. Indipendentemente dalla prevalenza dei contenuti già presente, i giornalisti affermano che la rivoluzione dell’IA è in atto solo all’inizio.

Rilevamento dei deepfake

I giornalisti possono utilizzare il rilevatore di deepfake di punta di TrueMedia per identificare se un video o un’immagine sono stati creati con l’intelligenza artificiale.

Lo strumento è semplice: gli utenti inviano un collegamento ai social media al rilevatore che esegue il contenuto attraverso una serie di software di rilevamento basati sull’intelligenza artificiale creati da società tecnologiche partner per determinare la probabilità percentuale che il contenuto sia generato artificialmente.

Lo strumento non è in grado di rilevare tutti i contenuti falsi, avverte MMe Paik. Ad esempio, ha difficoltà a individuare i “cheapfakes”, ovvero foto o video fuorvianti creati da esseri umani utilizzando software di editing non basati sull’intelligenza artificiale. I diffusori di disinformazione hanno anche iniziato a creare soluzioni alternative, come sovrapporre deepfake a media reali, per aggirare il processo di rilevamento.

In definitiva, con l’aumento della potenza dell’intelligenza artificiale, aumentano anche gli strumenti che li rilevano. “Siamo ancora lontani dal riuscire a raggiungerli il 100% delle volte, ma questo è uno dei modi più intelligenti per avvicinarcisi”, afferma M.Me Paik. “Se le persone creano deepfake generati dall’intelligenza artificiale, utilizzeremo l’intelligenza artificiale per contrastarlo.”

Collegare il rilevamento al giornalismo

Poiché l’ondata di contenuti falsi continua inevitabilmente sui social media, i giornalisti non devono fare affidamento esclusivamente sul rilevamento per combattere i deepfake, esorta M.Me Paik: Devono esplorare le fonti, il ragionamento e l’impatto della disinformazione.

Ad esempio, nei feed di notizie degli utenti dei social media sono proliferati post falsi generati dall’intelligenza artificiale sui recenti uragani negli Stati Uniti, che mostrano comunità allagate e distrutte. Sebbene alcuni di coloro che hanno ripubblicato queste immagini e video sapessero che erano falsi, compresi i politici, hanno provocato reazioni emotive e sono stati utilizzati per diffondere affermazioni inesatte sulla risposta del governo al disastro.

Ancora più importante, i giornalisti devono riflettere sul motivo per cui questi post inesatti diventano popolari, afferma MMe Paik, e lavora per contrastare queste narrazioni andando oltre la semplice verifica dell’accuratezza di un video.

“Dicendo: ‘Oh, abbiamo rilevato qualcosa!’ non è abbastanza”, dice. “I giornalisti hanno il potere di informare ed educare il pubblico. Ne abbiamo bisogno.”


Amritha R Warrier e AI4Media / Immagini migliori dell’intelligenza artificiale / Tic Tac Toe / Concesso in licenza CC-BY

-

NEXT “Un campanello d’allarme per il nostro pianeta”: nuove immagini mostrano la spaventosa portata del ritiro dei ghiacci artici