Thales Friendly Hackers inventa un metamodello per rilevare le immagini prodotte dall’intelligenza artificiale (deepfakes)
In occasione della European Cyber Week che si tiene a Rennes dal 19 al 21 novembre 2024, il cui tema è quello dell’intelligenza artificiale, i team Thales hanno partecipato all’AID Challenge e sviluppato un metamodello di rilevamento delle immagini generate dall’IA . In un momento in cui la disinformazione si diffonde nei media e in tutti i settori dell’economia, alla luce della generalizzazione delle tecniche di intelligenza artificiale, questo strumento mira a combattere la manipolazione delle immagini, per diversi casi d’uso, come in particolare la lotta contro la frode d’identità.
Le immagini generate dall’intelligenza artificiale vengono generate attraverso l’uso di moderne piattaforme AI (Midjourney, Dall-E, Firefly, ecc.). Alcuni studi prevedono che entro pochi anni i deepfake potrebbero causare ingenti perdite finanziarie a causa del loro utilizzo per furti di identità e frodi. Gartner ha stimato che nel 2023 circa il 20% degli attacchi informatici potrebbe includere contenuti deepfake come parte di campagne di disinformazione o manipolazione. Il loro rapporto1 evidenzia l’aumento dei deepfake nelle frodi finanziarie e negli attacchi di phishing avanzati.
“Il metamodello Thales per l’individuazione dei deepfake risponde in particolare al problema delle frodi d’identità e della tecnica del morphing[1]. L’aggregazione di diversi metodi che utilizzano reti neurali, rilevamento del rumore o anche frequenze spaziali consentirà di proteggere meglio il crescente numero di soluzioni che richiedono la verifica dell’identità mediante riconoscimento biometrico. Si tratta di un notevole progresso tecnologico, frutto dell’esperienza dei ricercatori Thales AI. » specifica Christophe Meyer, Esperto Senior in AI e Direttore Tecnico di cortAIx, l’acceleratore AI di Thales.
Il metamodello Thales si avvale di tecniche di apprendimento automatico, alberi decisionali e valutazione dei punti di forza e di debolezza di ciascun modello per analizzare l’autenticità di un’immagine. Combina così diversi modelli, tra cui:
• Il metodo CLIP (Contrastive Language–Image Pre-training) che consiste nel collegare immagini e testo imparando a capire come corrispondono un’immagine e la sua descrizione testuale. In altre parole, CLIP impara ad associare elementi visivi (come una foto) a parole che li descrivono. Per rilevare i deepfake, CLIP può analizzare le immagini e valutarne la compatibilità con le descrizioni in formato testo, individuando così incongruenze o anomalie visive.
• Il metodo DNF che utilizza le attuali architetture di generazione delle immagini (modelli “diffusion”) per rilevarle. Concretamente, i modelli di diffusione si basano sulla stima del rumore da aggiungere a un’immagine per creare un’“allucinazione” che genererà contenuto dal nulla. La stima di questo rumore può essere utilizzata anche nel rilevamento di immagini generate dall’intelligenza artificiale.
• Il metodo DCT (Discrete Cosine Transform) si basa sull’analisi delle frequenze spaziali di un’immagine. Trasformando l’immagine dallo spazio spaziale (pixel) allo spazio delle frequenze (come le onde), la DCT è in grado di rilevare sottili anomalie nella struttura dell’immagine, spesso invisibili a occhio nudo. Appaiono durante la generazione di deepfake.
Il team di Friendly Hackers dietro questa invenzione fa parte di cortAIx, l’acceleratore di intelligenza artificiale di Thales, con oltre 600 ricercatori e ingegneri di intelligenza artificiale, di cui 150 basati sull’altopiano di Saclay e che lavorano su sistemi critici. I Friendly Hackers del Gruppo hanno sviluppato un toolbox, il BattleBox, il cui obiettivo è facilitare la valutazione della robustezza dei sistemi che integrano l’IA contro attacchi volti a sfruttare le vulnerabilità intrinseche di diversi modelli di AI (compresi i Large Language Models), come gli attacchi avversari o attacchi volti a estrarre informazioni sensibili. Per far fronte agli attacchi vengono proposte contromisure adeguate, come unlearning, federated learning, model watermarking, model robustification.
Il Gruppo è stato vincitore nel 2023 nell’ambito della sfida CAID (Conference on Artificial Intelligence for Defense) organizzata dalla DGA, volta a trovare alcuni dati utilizzati per addestrare l’IA, anche quando erano stati cancellati dal sistema per preservarne la riservatezza.
Belgium
Related News :