Talvolta non è più possibile distinguere tra video reali e video falsi

Talvolta non è più possibile distinguere tra video reali e video falsi
Talvolta non è più possibile distinguere tra video reali e video falsi
-
Attenzione ai deepfake! DALL-E3.

Immagini, video e registrazioni audio create o modificate utilizzando l’intelligenza artificiale (AI) sono diventate parte integrante del nostro mondo digitale. Per limitarne gli effetti spiacevoli è necessaria una combinazione di diverse misure, secondo l’ultimo studio di TA-Swiss.

Lo studio della TA-Swiss Technology Assessment Foundation invita inoltre a rafforzare la responsabilità personale e le competenze mediatiche per sfruttare il potenziale positivo dei contenuti generati dall’intelligenza artificiale. Ma attenzione, l’uso dannoso di queste tecnologie è molto diffuso, sia da parte di organizzazioni criminali, hacker industriali o a scopo di molestie.

Sensibilizzare e sostenere le vittime

In generale, i deepfake ingannevoli o illegali diventano una minaccia, soprattutto quando si diffondono in modo massiccio e incontrollato. Lo studio TA-Swiss raccomanda di rafforzare l’educazione mediatica tra i cittadini per ridurre la condivisione di questi contenuti falsi.

Gli autori dello stesso testo, disponibile a questo indirizzo, suggeriscono anche di agire con le grandi piattaforme che hanno la capacità di impedirne la diffusione. Infine, lo studio rileva che le vittime dei deepfake necessitano di ulteriore aiuto attraverso servizi di consulenza dedicati, che devono ancora essere creati.

Impossibile separare i fatti dalla finzione

In un esperimento, molte persone e persino i software non sono riusciti a identificare i contenuti generati dall’intelligenza artificiale, anche con le istruzioni. I media tradizionali hanno quindi un ruolo importante da svolgere grazie alla loro sensibilità nell’individuare informazioni false.

Misure tecniche come i certificati digitali di autenticità delle immagini permetterebbero inoltre di risalire in modo trasparente alla loro origine e alle modifiche fino alla pubblicazione. Dobbiamo però sensibilizzare la popolazione sul fatto che non tutte le fonti di informazione seguono i principi giornalistici.

Sfrutta il potenziale positivo

Nonostante i rischi, le tecnologie associate ai deepfake offrono anche opportunità, in particolare nel settore dell’intrattenimento per attori che eseguono la sincronizzazione labiale in diverse lingue. Nel campo dell’istruzione, gli avatar digitali di personaggi storici potrebbero fungere da guide interattive nei musei.

Infine, la polizia spera che queste diverse tecnologie offrano nuove possibilità per ricostruire le scene del crimine. Ma per sfruttare questo potenziale positivo limitando gli abusi, sembra essenziale una combinazione di misure tecniche, normative e di sensibilizzazione.

XS

Mi piace questa :

amo caricamento…

-

PREV La NNPC della Nigeria cerca un nuovo prestito garantito dal petrolio per sostenere le finanze
NEXT SinaStone lancia una fabbrica all’avanguardia a Casablanca, oggi in Marocco