New York
CNN
—
Con una serie di cambiamenti radicali che modificheranno in modo significativo il modo in cui post, video e altri contenuti vengono moderati online, Meta adeguerà le sue politiche di revisione dei contenuti su Facebook e Instagram, eliminando i fact checker e sostituendoli con “note della community” generate dagli utenti. ”, simile a X di Elon Musk, ha annunciato martedì il CEO Mark Zuckerberg.
I cambiamenti arrivano poco prima che il presidente eletto Donald Trump entri in carica. Trump ha criticato Zuckerberg e Meta per quella che considera una censura delle voci di destra.
“I fact checker sono stati troppo politicamente parziali e hanno distrutto più fiducia di quanta ne abbiano creata”, ha detto Zuckerberg in un video che annunciava la nuova politica martedì. “Ciò che era iniziato come un movimento per essere più inclusivi è stato sempre più utilizzato per soffocare le opinioni ed escludere le persone con idee diverse, ed è andato troppo oltre”.
Zuckerberg, tuttavia, ha riconosciuto un “compromesso” nella nuova politica, sottolineando che sulla piattaforma appariranno più contenuti dannosi a seguito delle modifiche alla moderazione dei contenuti.
Il nuovo capo degli affari globali di Meta, Joel Kaplan, ha detto martedì a Fox che le partnership di Meta con fact-checker di terze parti erano “ben intenzionate all’inizio, ma c’è stato semplicemente troppo pregiudizio politico in ciò che scelgono di verificare e come”.
L’annuncio arriva nel contesto di un evidente spostamento ideologico più ampio verso destra all’interno dei vertici di Meta, e mentre Zuckerberg cerca di migliorare il suo rapporto con Trump prima che il presidente eletto entri in carica alla fine di questo mese. Solo un giorno prima, Meta aveva annunciato che Dana White, alleata di Trump e CEO dell’UFC, sarebbe entrata a far parte del consiglio di amministrazione, insieme ad altri due nuovi direttori. Meta ha anche affermato che donerà 1 milione di dollari al fondo inaugurale di Trump e che Zuckerberg vuole assumere un “ruolo attivo” nelle discussioni sulla politica tecnologica.
Kaplan, un eminente repubblicano che la scorsa settimana è stato elevato al massimo incarico politico della società, ha riconosciuto che l’annuncio di martedì è direttamente correlato al cambio di amministrazione.
Ha detto che “non c’è dubbio che ci sia stato un cambiamento negli ultimi quattro anni. Abbiamo assistito a molta pressione sociale e politica, tutta nella direzione di più contenuti, moderazione e censura, e abbiamo una vera opportunità. Ora abbiamo una nuova amministrazione e un nuovo presidente in arrivo che sono grandi difensori della libertà di espressione, e questo fa la differenza”.
Le modifiche alla moderazione segnano una sorprendente inversione nel modo in cui Meta gestisce le affermazioni false e fuorvianti sulle sue piattaforme.
Nel 2016, la società ha lanciato un programma indipendente di verifica dei fatti, sulla scia delle accuse secondo cui non era riuscita a impedire ad attori stranieri di sfruttare le sue piattaforme per diffondere disinformazione e seminare discordia tra gli americani. Negli anni successivi, ha continuato a fare i conti con la diffusione di contenuti controversi sulla sua piattaforma, come disinformazione sulle elezioni, storie contro i vaccini, violenza e incitamento all’odio.
L’azienda ha creato team di sicurezza, introdotto programmi automatizzati per filtrare o ridurre la visibilità di false affermazioni e ha istituito una sorta di Corte Suprema indipendente per le decisioni difficili di moderazione, nota come Oversight Board.
Ma ora, Zuckerberg sta seguendo le orme del collega leader dei social media Musk, che dopo aver acquisito X, allora noto come Twitter, nel 2022, ha smantellato i team di verifica dei fatti dell’azienda e ha creato etichette di contesto generate dagli utenti chiamate note della comunità, l’unico metodo della piattaforma. di correggere false affermazioni.
Meta afferma che sta terminando la sua collaborazione con verificatori di fatti di terze parti e istituendo note comunitarie simili.
“Penso che Elon abbia svolto un ruolo incredibilmente importante nello spostare il dibattito e nel riportare le persone a focalizzarsi sulla libera espressione, e questo è stato davvero costruttivo e produttivo”, ha affermato Kaplan.
La società prevede inoltre di adeguare i suoi sistemi automatizzati che scansionano le violazioni delle politiche, che secondo lei hanno comportato la censura di “troppi contenuti che non avrebbero dovuto essere censurati”. I suoi sistemi saranno ora focalizzati sul controllo solo delle violazioni illegali e di “elevata gravità” come terrorismo, sfruttamento sessuale minorile, droga, frode e truffe. Altre preoccupazioni dovranno essere segnalate dagli utenti prima che l’azienda le valuti.
Zuckerberg ha affermato martedì che i complessi sistemi di Facebook per moderare i contenuti hanno erroneamente comportato la rimozione dalla piattaforma di troppi contenuti non violativi. Ad esempio, se i sistemi sbagliano qualcosa l’1% delle volte, ciò potrebbe rappresentare milioni degli oltre 2 miliardi di utenti dell’azienda.
“Siamo arrivati a un punto in cui ci sono troppi errori e troppa censura”, ha detto Zuckerberg. “Ciò che era iniziato come un movimento per essere più inclusivi è stato sempre più utilizzato per soffocare le opinioni ed escludere le persone con idee diverse ed è andato troppo oltre”.
Ma Zuckerberg ha riconosciuto che la nuova politica potrebbe creare nuovi problemi per la moderazione dei contenuti.
“La realtà è che si tratta di un compromesso”, ha detto nel video. “Significa che cattureremo meno cose brutte, ma ridurremo anche il numero di post e account di persone innocenti che elimineremo accidentalmente.”
Questa è una storia in via di sviluppo e verrà aggiornata.