“NO controllo dei fattiquesto è ciò che ci resta della democrazia. Perché senza informazioni affidabili non possiamo fare scelte informate», afferma fin dall’inizio René Villemure.
Il deputato del Blocco di Trois-Rivières, che è anche eticista e vicepresidente della Commissione permanente per l’accesso alle informazioni, la protezione dei dati personali e l’etica della Camera dei Comuni, è preoccupato per il cambio di direzione di Meta: “È una giornata buia per le notizie. È un giorno buio per la democrazia”.
Inversione di passo
Il programma di fact-checking di Meta è stato lanciato nel 2016 per combattere la disinformazione dopo il controverso ruolo di Facebook nelle prime elezioni di Donald Trump. Aveva quasi 100 partner in più di 60 lingue. Nel video di martedì Mark Zuckerberg ha giustificato la sua decisione affermando che i sistemi attuali commettono troppi errori.
Sebbene il colosso digitale affermi che continuerà a moderare i contenuti relativi ad argomenti delicati come la droga, il terrorismo, lo sfruttamento minorile e la frode – il team di moderazione dei contenuti sarà trasferito dalla California al Texas – altri argomenti saranno lasciati alle “note della community”.
Parliamo qui più precisamente di uno strumento di moderazione partecipativa che mira a combattere la disinformazione consentendo agli utenti della piattaforma di contribuire al fact-checking.
Elon Musk aveva presentato il metodo utilizzato su X – ex Twitter – dal 2023 come una vera e propria “rivoluzione per combattere le false informazioni”. Il che, inizialmente, non era necessariamente una cattiva idea, secondo Bruno Guglielminetti, editorialista e giornalista tecnologico e uomo dietro i media digitali Il mio taccuino.
“L’idea iniziale era quella di permettere alle persone di mettersi in gioco e arricchire i dibattiti. Solo che si basa essenzialmente sulla buona fede degli utenti”, afferma.
“Quello che abbiamo notato su X è che lo usano tanto in una direzione quanto nell’altra.”
— Bruno Guglielminetti, editorialista e giornalista techno
La moderazione che genera polarizzazione
L’esperienza dimostra che questi strumenti possono generare dibattiti polarizzanti. “Ci sarà una pubblicazione che susciterà interesse o costernazione, e rapidamente ci saranno tante persone che diranno che è nera quante altre persone che diranno che è bianca.” , osserva Bruno Guglielminetti.
Una dinamica che è lungi dal chiarire il dibattito, ma che, soprattutto, riflette le tensioni e le divergenze interpretative proprie delle comunità online.
Ancora più complicato in Canada
Queste recenti misure saranno particolarmente difficili da attuare in Canada a causa dell’Online News Act in vigore dall’agosto 2023.
In rappresaglia per la sua applicazione, Meta ora impedisce ai canadesi di condividere articoli credibili sui media sui loro social network. Così, le fonti soggette a carte professionali ed etiche basate sul rigore – come i giornali delle Coops de l’information – sono assenti dalle piattaforme Meta.
È quindi impossibile in questo momento per un canadese condividere queste pubblicazioni per sostenere la discussione e costruire un argomento basato sui fatti in un dibattito che verterebbe, ad esempio, sulla possibilità che la terra sia piatta. Sì, esiste.
In altre parole, un utente di Facebook può affermare in una pubblicazione che la Terra è piatta o che l’uomo non ha mai camminato sulla Luna, supportando le sue affermazioni con argomentazioni e addirittura articoli pseudoscientifici diffusi sulla piattaforma Meta. . Sarà ora responsabilità degli utenti Facebook valutare e validare la veridicità dei contenuti.
Ci troviamo in un’assemblea generale senza arbitro e l’equilibrio dei commenti determinerà il valore, o addirittura la verità dell’affermazione – un po’ come un sito che pubblica le recensioni dei ristoranti da parte del pubblico.
Meno limiti sui contenuti politici
Senza contare che Meta aveva già posto dei limiti ai contenuti politici per evitare eccessi. Tuttavia, in questo recente cambiamento, includiamo la rimozione di questi filtri che riducono la visibilità di questo tipo di contenuti.
“Avevano messo dei filtri affinché ci fossero meno contenuti politici perché l’esperienza aveva dimostrato che in certe situazioni di conflitto, come in tempo di guerra, c’era molta disinformazione”, spiega Nellie Brière, divulgatrice del digitale e stratega specializzata in social media. L’Ucraina è un buon esempio, dove siamo stati bombardati da falsi video live”.
Un fenomeno che ha alimentato quella che viene chiamata la nebbia di guerra, che fa riferimento all’incertezza e alla confusione insite nelle situazioni di guerra, dove le informazioni sono spesso incomplete o contraddittorie, lasciando talvolta libero spazio alla propaganda.
Capire: meno controllo dei fatti, ma più contenuto politico. Un cocktail potenzialmente esplosivo. “E sottoponiamo la moderazione al voto popolare!” aggiunge.
Meta era però allineata con l’Europa severa
Nellie Brière lancia un avvertimento importante. Per lei, questa decisione segna chiaramente un cambiamento preoccupante, soprattutto perché fino a poco tempo fa Meta era “più allineata” con le leggi europee, che sono molto rigide e coerenti con i social media.
Cita il Digital Act – la legislazione dell’Unione europea sui servizi digitali – che impone un equilibrio tra libertà di espressione, protezione contro i contenuti che incitano all’odio, protezione dei dati personali e, tra le altre cose, la difesa delle minoranze nel contesto digitale.
“L’annuncio di Mark Zuckerberg significa che Meta abbandona ora l’aspetto della protezione dei cittadini dai contenuti che incitano all’odio e dalla disinformazione”, precisa lo stratega digitale.
I meno illuminati sono più facilmente influenzabili
Sottolinea che questi cambiamenti avvengono in un contesto di crescente polarizzazione del discorso e del ritorno di Donald Trump nell’arena politica.
“Meta sembra cedere alle pressioni dei sedicenti difensori della libertà di espressione senza limiti, con il rischio di indebolire ulteriormente la salute dei nostri dibattiti pubblici e delle nostre democrazie”, teme.
La comunicatrice è tanto più preoccupata in quanto constata l’analfabetismo della popolazione rispetto alla tecnologia digitale, che è inversamente proporzionale al suo utilizzo.
“Ha un impatto importante, persino insidioso, su molti argomenti. Senza essere adeguatamente informati, ci lasciamo influenzare, addirittura manipolare, e questo influisce su molti aspetti della nostra vita, sostiene. La tecnologia digitale è nel palmo della nostra mano, è la prima cosa che guardiamo quando ci alziamo la mattina.”
Il rischio per Nellie Brière è che se la comunità sceglie, ad esempio, di rafforzare il discorso transfobico, omofobico o sessista, questo sarà ciò che regolerà i contenuti della piattaforma, senza alcun riferimento a principi come la Carta dei diritti e delle libertà. .
“Sono gli utenti che prenderanno le decisioni, spesso sulla base di informazioni errate, perché ciò che consumano proviene principalmente da Facebook”, afferma. È un circolo vizioso”.
Inoltre, Meta ha annunciato lunedì la nomina nel suo consiglio di amministrazione del miliardario specialista in capitale di rischio Charlie Songhurst, del presidente del consiglio di amministrazione delle case automobilistiche Stellantis e Ferrari, John Elkann, e di Dana White, amministratore delegato dell’Ultimate Fighting Championship (UFC). ), un intimo del popolare podcaster di cospirazione Joe Rogan.
La probabilità come porta verso la menzogna
Il deputato del Bloc René Villemure sottolinea che, sorprendentemente, la disinformazione ha dominato le classifiche in vista dell’intensificarsi delle minacce ambientali nell’ultimo Global Risks Report del World Economic Forum all’inizio del 2024.
“Se guardiamo la cosa da una prospettiva più ampia, mi sono reso conto, ben prima di entrare in politica, che da quando modifichiamo le foto con i filtri, la verità ha progressivamente lasciato il posto al plausibile”
— René Villemure, deputato del Blocco
“E quando ti abitui al probabile, il falso non è mai lontano. Questa è una linea pericolosa, perché oggi, se continuasse questa tendenza, arriveremmo a dubitare di tutto. Tuttavia, una società non può funzionare come collettivo in un clima del genere”.
Secondo l’agenzia di creazione di contenuti We Are Social, all’inizio del 2023 Facebook aveva 20,65 milioni di utenti in Canada – metà della popolazione del paese. Gli annunci pubblicitari trasmessi sulla piattaforma avevano quindi il potenziale per raggiungere un canadese su due.
“È certo che avrà un impatto diretto sulle nostre democrazie canadese e del Quebec”, conclude Nellie Brière. Tieni presente che il nuovo sistema di moderazione e verifica non si applicherà al Canada fino a nuovo avviso.