Attenzione ai “deepfake” di medici famosi, truffe commerciali al servizio del mio blog – Il mio blog

Attenzione ai “deepfake” di medici famosi, truffe commerciali al servizio del mio blog – Il mio blog
Attenzione
      ai
      “deepfake”
      di
      medici
      famosi,
      truffe
      commerciali
      al
      servizio
      del
      mio
      blog
      –
      Il
      mio
      blog
- -

Medici noti e rispettati che promuovono cure “miracolose” per il diabete o l'ipertensione? Pubblicità ingannevoli che utilizzano l'immagine di figure autorevoli nel campo della salute, manipolate dall'intelligenza artificiale, stanno inondando i social network, un'ondata che è molto difficile da contenere secondo gli esperti.

Su Facebook e Instagram promettono di curare il diabete senza metformina, un farmaco prescritto come trattamento di prima linea, spingendo persino i pazienti ad abbandonare la cura che “li ucciderà”, in favore di oscuri sciroppi cosiddetti “naturali”.

Queste truffe sfiorano il pericolo della vita altrui e sono tanto più perniciose perché si basano sull’immagine di medici famosi, come il dottor Michel Cymes in Francia o il dottor Michael Mosley nel Regno Unito, vittime di questi “deepfake”, contenuti online generati o modificati utilizzando l’intelligenza artificiale.

“La gente si fida di questi video perché questi dottori hanno dedicato del tempo a costruire un'immagine di credibilità, quindi vengono creduti, anche quando fanno affermazioni completamente assurde”, lamenta all'AFP il dottor John Cormack, un medico di base britannico che collabora con il British Medical Journal (BMJ) su questo argomento.

Questi “deepfake” hanno “davvero preso piede quest’anno”, osserva Henry Adjer, specialista in intelligenza artificiale, notando che le pubblicità sono principalmente rivolte a un pubblico “leggermente più anziano”, deviando l’immagine dei “dottori televisivi”.

Contattato dall'AFP a maggio, Michel Cymes ha dichiarato di aver già portato Meta in tribunale per denunciare queste “truffe”.

La britannica Hilary Jones, che appare in video generati dall'intelligenza artificiale in cui si vende una finta cura per la pressione alta e caramelle gommose alla canapa, ha assunto un esperto per scovare le pubblicità.

“Ma anche quando vengono rimossi, ricompaiono il giorno dopo con un altro nome”, si lamenta sul BMJ.

– “Circoli della cospirazione” –

Queste truffe “hanno preso piede grazie ai progressi del 'deep learning' (tecnologia progettata per consentire a una macchina di apprendere da sola), spiega Frédéric Jurie, docente e ricercatore in informatica presso l'Università di Caen.

La qualità delle immagini, degli audio e dei video “deepfake” ha fatto enormi progressi, nota lo specialista: “oggi abbiamo accesso a decine di miliardi di immagini e siamo in grado di costruire algoritmi in grado di modellare tutto ciò che può apparire nelle immagini e rigenerare le immagini. Questo è ciò che chiamiamo AI generativa”.

Più di recente, personaggi controversi, come il professor Didier Raoult in Francia, sono stati vittime di “deepfake”.

Barbara O'Neill, una naturopata australiana considerata “un pericolo per la salute” dalle autorità del suo Paese dopo aver promosso il bicarbonato di sodio contro il cancro, è diventata una star di TikTok grazie a foto “deepfake” che la ritraggono mentre vende pillole per “pulire i vasi sanguigni”, in particolare.

Contattato dall'AFP, il marito, che è co-direttore della O'Neill Company, deplora il fatto che “molte persone usino la reputazione di Barbara per vendere prodotti che lei non consiglia”.

Questo fenomeno non sorprende Henry Adjer per il quale “queste persone sono modelli per certi circoli cospirazionisti”.

Tra i video falsi che vedono come protagonista Barbara O'Neill, alcuni ricadono anche nelle teorie del complotto, assicurando che la naturopata sia morta – il che è falso – dopo aver scoperto un olio miracoloso, venduto su Amazon.

Di fronte a questi “deepfake”, gli esperti non sono molto ottimisti sul successo degli strumenti di rilevamento: “È un gioco del gatto e del topo”, spiega Frédéric Jurie. “In linea di principio, il rilevamento non può migliorare troppo, perché se qualcuno trovasse qualcosa per migliorare il rilevamento, allora la persona che vuole creare immagini false userebbe questo mezzo per aggirarlo”.

Il ricercatore evidenzia invece “tecniche che permettono di garantire che il contenuto non sia stato alterato, come nel caso della messaggistica, grazie a software che producono firme digitali, come un certificato”.

bur-jp/spe/arco

-

PREV Stromae torna al fianco di Pomme nella colonna sonora della serie Arcane
NEXT Troppa politica e troppe critiche, cosa c'è di così terribile alla Red Bull?