Visto come un rifugio da chi è deluso, ma qui con alcune innovazioni.
Specializzato nel rintracciare operazioni di influenza, il collettivo @antibot4navalny ha rivelato le dimensioni di “Matriochka” (“Bambola Russa”) un anno fa. Nelle ultime settimane, questo collettivo ha accumulato segnali di risposta nella giovane rete americana Bluesky, che conta più di 13 milioni di utenti.
Analizzati dall’AFP, questi dati mostrano decine di pubblicazioni con un modus operandi simile, consistente nell’invitare i media a verificare le notizie false.
Con una novità: in Bluesky, oltre a imitare talvolta i contenuti dei media, notiamo che alcuni post utilizzano l’intelligenza artificiale (AI) per usurpare l’identità delle università.
Fondamentalmente, l’obiettivo sembra sempre lo stesso: presentare la Russia sotto una luce favorevole, criticando al contempo gli aiuti occidentali forniti all’Ucraina e spesso criticando Emmanuel Macron, un obiettivo favorito.
Gli account utilizzati presentano tutte le caratteristiche dei robot software (“bot”) filo-russi – questi falsi profili utilizzati per aumentare artificialmente la visibilità delle pubblicazioni –, ha detto a dicembre Eliot Higgins, fondatore del collettivo Bellingcat, specializzato in indagini sulle fonti . aprire.
Ipertrucaggi
Grazie ai dati raccolti da @antibot4navalny, l’AFP ha osservato una cinquantina di pubblicazioni relative a “Matriochka”.
La maggior parte si accontenta di ripubblicare i messaggi già presenti
È possibile che “l’operazione cerchi di testare la sua efficacia in termini di portata” prima di altre offensive, osserva Valentin Châtelet, del laboratorio di analisi digitale del Consiglio Atlantico, intervistato dall’AFP.
Usurpando l’identità delle università, l’obiettivo potrebbe essere quello di “stabilire argomenti di autorità”, “adattandosi al pubblico di Bluesky”, analizza Peter Benzoni, specialista in manipolazione dell’informazione dell’Alliance for Securing Democracy, presso il Fondo Marshall tedesco (GMF).
In un video manipolato, un professore dell’Università di Aix-Marsiglia evoca “numerosi errori nell’organizzazione dei Giochi olimpici” legati alle difficoltà “dell’economia francese”. A causa delle “sanzioni contro la Russia”, suggerisce la didascalia.
Questo è un iperfaking (deepfake), oppure qui contenuti il cui audio è stato manipolato: l’AFP ha ritrovato il video originale trasmesso a fine ottobre sull’account Instagram dell’Università. Il professore di diritto non ha fatto menzione dell’economia francese e si è limitato a fare il punto sull’anno 2024 nel suo dipartimento universitario.
Decine di altri video visualizzati utilizzano una messa in scena simile con un esperto di fronte alla telecamera, un’immagine accompagnata dal logo o dal nome dell’università. Dopo alcune frasi seguono illustrazioni tratte da media o banche di immagini.
Altro esempio: nelle riprese del campus dell’Università inglese di Sunderland, studenti e insegnanti avrebbero espresso le loro opinioni sulla Russia, gratificati con aggettivi elogiativi.
Ancora una volta, questa è manipolazione. Nel video originale, ritrovato dall’AFP, non c’è la minima allusione alla Russia.
Trucchi “industrializzati”.
“Ciò indica che la campagna è riuscita a industrializzare la produzione di voice over [hors champ] falso, il che riecheggia una tendenza comune a varie operazioni di disinformazione provenienti dalla Russia”, analizza Valentin Châtelet.
L’esperto si riferisce in particolare a campagne di influenza come “Doppelgänger”, che si basano sulla copiatura dei siti web dei media occidentali.
Il collettivo @antibot4navalny ha condiviso un elenco di account che diffondono notizie false su Bluesky, invitando gli utenti di Internet a segnalarli.
Da allora, l’AFP ha notato che la maggior parte delle pubblicazioni individuate erano state cancellate dalla piattaforma, che incoraggia gli utenti a segnalare eventuali contenuti problematici, rivendicando così un impegno attivo contro la disinformazione.
Nel 2023, il suo team di moderatori afferma di aver elaborato più di 358.000 segnalazioni.
Secondo Valentin Châtelet, il social network, che non ha risposto alle richieste dell’AFP, “è consapevole del problema e sa che la comunità di fact checker e ricercatori open Source sta già indagando su questi contenuti e segnalandoli per impedirne la diffusione”. viralità.
Secondo l’esperto, attualmente i suoi sforzi sono “piuttosto efficaci nel limitare l’operazione”. Ma sottolinea che queste azioni rimangono “molto reattive” e che Bluesky deve ancora dimostrare di poter smantellare “proattivamente” l’operazione in corso.