Deepfake: tanti rischi e alcune opportunità

Deepfake: tanti rischi e alcune opportunità
Deepfake: tanti rischi e alcune opportunità
-

Iperfaking, disinformazione, manipolazione. Questo è ciò che spesso viene in mente quando si parla di deepfake, questa tecnica di sintesi di dati multimediali basata sull’intelligenza artificiale. “Oggi, creare deepfake può essere fatto con relativa facilità. All’epoca servivano davvero conoscenze molto tecniche, in informatica, in intelligenza artificiale… Oggi parlo di ‘deepfake as a service’ perché puoi creare un account su una piattaforma, inserire la tua carta di credito e basta »,. pensa Loris Bergeron, ingegnere informatico senior presso la Banque de Luxembourg. Si tratta di uno sviluppo osservato da tutti gli specialisti: la democratizzazione di questa tecnica, con piattaforme online sempre più dedicate. Ma Loris Bergeron sottolinea un altro sviluppo, che mostra i potenziali abusi di questa tecnica di rigging sempre più avanzata.

“Ad esempio, vediamo sempre più deepfake in truffe, cioè truffe su Internet, e sempre più casi di molestie elettroniche con questi deepfake. Fondamentalmente, avevamo davvero campagne deepfake pubbliche, pubblicate sui social network. Ma stiamo assistendo a sempre più campagne intimidatorie che utilizzano deepfake mirati direttamente contro le persone”, osserva.

Spesso utilizzati a fini di disinformazione e manipolazione politica, ad esempio durante elezioni e campagne elettorali, o per generare discorsi di propaganda, i deepfake vengono ora utilizzati per diffondere video compromettenti di persone che, sebbene falsi, ne danneggiano la reputazione. Possono anche essere uno strumento di ricatto, ma anche di frode finanziaria o di furto di identità. Prendiamo ad esempio un audio deepfake che potrebbe imitare la voce del CEO di un’azienda per fornire istruzioni finanziarie fraudolente a dipendenti o partner commerciali. Abusi che evolveranno di pari passo con la tecnologia e che quindi rischiano di diventare sempre più numerosi.

Opportunità…

Ma questi video falsi possono essere utilizzati anche nel mondo professionale, che può trarne vantaggio. Intervenendo al panel, anche il CEO di Ella Media, Michael Keusgen, ha ricordato che la tecnica del deepfake potrebbe offrire delle opportunità. La sua azienda, Ella Media, sviluppa agenti conversazionali e soluzioni di intelligenza artificiale “con un tocco umano”. Avatar che diventano così rappresentanti di un brand, via chat, voce o video. La sua architettura, denominata “Persona”, consente un’ampia personalizzazione fin nei dettagli.

(Da sinistra a destra) Il responsabile informatico della CFL, Maxime Dehaut, ha moderato un panel nel quale hanno partecipato la ricercatrice Djamila Aouada, l’ingegnere informatico della Banque de Luxembourg Loris Bergeron, il direttore generale di Ella Media Michael Keusgen, nonché i rappresentanti europei Il consigliere della Commissione Juha Heikkilä. (Foto: Maëlle Hamma/Maison Moderne)

Anche la responsabile del Computer Vision, Imaging and Machine Intelligence (CVI2) del gruppo di ricerca dedicato alla SnT, Djamila Aouada, vede un lato promettente, a condizione che il suo utilizzo sia ben ponderato e un’ottima fonte di creatività. “Possiamo citare ad esempio Synthesia, che è stato creato dai ricercatori e che permette di creare avatar. Si tratta di falsi, ma lo strumento può essere utilizzato per evitare la necessità di creare tutto il contenuto e per essere più efficiente. È una fonte di impegno e risparmio di denaro. Si tratta di strumenti sempre più utilizzati dagli YouTuber, che possono così produrre video senza doversi preoccupare di tutti gli aspetti tecnici come la luminosità, le riprese, il linguaggio utilizzato, ecc..”

Secondo Loris Bergeron, la tecnica potrebbe essere adottata in misura minore anche nelle aziende. “Immaginiamo di prendere un’azienda che realizza video per i propri clienti, clienti internazionali. La persona che farà la presentazione lo farà, ad esempio, nella sua lingua madre – immagina il francese, l’inglese, qualunque cosa. Con un deepfake possiamo moltiplicare la stessa intervista sintetizzando la voce della persona in un’altra lingua, cambiando l’ambientazione o altro. Quindi questi sono impatti positivi. Possiamo davvero essere molto più vicini ai clienti, ad esempio cambiando la lingua con cui interagiamo con loro”, afferma.

La sfida: sapere come rilevare

Ma resta una sfida importante: sapere come individuarli. Cosa che in molti casi tutti sono in grado di fare. Secondo Djamila Aouada bisogna innanzitutto cercare i difetti nei contenuti multimediali falsi, che nella maggior parte dei casi si presentano sotto forma di video. “La sincronizzazione può indurre difetti nell’aspetto spaziale, al tempo T. Possiamo osservarli ad esempio sui contorni del viso, a livello della sua delimitazione. Spesso si verificano anche problemi temporali o labbra e voce non sincronizzate. Ma chi crea deepfake a volte gioca con la risoluzione dei dati, pixelizzandoli in modo che questi difetti siano meno evidenti. Quanto migliore è un deepfake, tanto più difficile è ovviamente individuare questi difetti”, spiega Djamila Aouada, che distingue tra “cheapfakes”, questi deepfake di scarsa qualità, e “deepfake di alta qualità”, spesso rivolti a personaggi famosi. “Questa situazione si sta evolvendo molto rapidamente e noi, come utenti, troveremo sempre più difficile rilevarli”.

La SnT sta quindi svolgendo un lavoro di ricerca e sviluppando diverse categorie di algoritmi per individuare questi iperfake. “Applichiamo un approccio generale, questa è la base della nostra ricerca, con algoritmi agnostici alle tipologie di deepfake”. In sostanza, i ricercatori dell’Università addestrano la macchina con immagini reali, in modo che sia in grado di individuare meglio quelle false.

In definitiva, affinché gli strumenti di rilevamento siano democratizzati, “dovremo avere l’ecosistema adatto e tutti dovranno giocare affinché siano sviluppati su larga scala. Ma in realtà è molto più complesso che avere un solo strumento. Dobbiamo anche tenere conto degli elementi relativi alla reputazione online e all’autenticazione delle persone online», sottolinea Djamila Aouada.

Al di là dell’aspetto tecnico, Loris Bergeron consiglia di “mantenere uno spirito critico e umano, e verificare sempre la veridicità delle informazioni. Non prendere per oro colato un video che hai visto su un feed TikTok o altro. Il problema con i possibili strumenti di rilevamento è che la creazione di deepfake si evolve così rapidamente che questi strumenti non seguono lo stesso ritmo di sviluppo. Lo stiamo già vedendo per l’intelligenza artificiale generativa, ad esempio con ZeroGPT, che permette di rilevare se un testo è stato generato da ChatGPT oppure no. Vediamo che i risultati non sono molto buoni perché ChatGPT si evolve molto più velocemente dello strumento di rilevamento”, sottolinea. Contro gli eccessi dei deepfake, la Commissione Europea, rappresentata in questo panel da Juha Heikkilä, aveva chiesto alle piattaforme di essere responsabili del loro modo di gestire i deepfake.

-

PREV La Banca Mondiale prevede di investire 2,48 miliardi di dollari nella tecnologia digitale in Africa
NEXT Progetti ambiziosi per Casablanca: focus su Hay Hassani