« Ci libereremo dei fact-checker “. Questa dichiarazione del capo di Meta Mark Zuckerberg martedì 7 gennaio ha suscitato molta preoccupazione tra gli specialisti nella lotta alla disinformazione. Mentre alcuni vogliono eliminare il fact-checking sulle reti, altri cercano, al contrario, di facilitare l’accesso alle informazioni verificate. È il caso della ONG La Response Tech che ha recentemente lanciato Vera, un bot di verifica conversazionale.
Usare l’intelligenza artificiale per permettere a tutti di verificare le informazioni in tempo reale. Questa è la missione che il collettivo cittadino La Response Tech ha lanciato sviluppando Vera, un agente conversazionale digitaleaccessibile 24 ore su 24, 7 giorni su 7. Concretamente, tutto quello che devi fare è chiamare il numero di telefono di Vera, 09 47 99 12 95 o inviarle un messaggio su WhatsApp, chiedendole se queste informazioni sono vere o false.
Per questo esempio, abbiamo posto volontariamente una domanda su una notizia falsa verificata da la cella Informazioni Verifica RFI. Ma questa intelligenza artificiale si basa sul lavoro di diverse centinaia di fonti affidabili, selezionate da un comitato di esperti e liberamente consultabile.
« Sulla base della domanda posta dall’utente, Vera controllerà prima se qualche editoriale di verifica dei fatti ha trattato l’argomento. Se così non fosse, cercherà la risposta in 300 siti media riconosciuti affidabili, prima di farne una sintesi e proporla in tempo reale », spiega il suo fondatore, Florian Gauthier. Tecnicamente Vera si basa sul modello linguistico GPT-4, sviluppato dall’azienda americana Open AI.
Florian Gauthier- Come funziona Vera
Oggi Vera viene utilizzata da circa 700 utenti unici ogni settimana.
Un’intelligenza artificiale modellata per evitare errori
Come ogni strumento basato sull’intelligenza artificiale, Vera non è infallibile. Esiste il rischio di errore o di risposta incompleta. Ma a differenza dei chatbot come ChatGPT, Perplexity o Claude, Vera non è stata progettata per rispondere a tutti i costi alla domanda posta. “ A Vera è completamente vietato immaginare qualsiasi cosa. Non appena formula una risposta, questa è stata data da una fonte attendibile che viene sempre citata. Se Vera non trova la risposta nel suo database, cosa che accade di tanto in tanto, non proverà a inventarla. Poi si limiterà a specificare che non ha trovato la risposta a questa domanda. », spiega Florian Gauthier.
Florian Gauthier – Evitare le allucinazioni
Un’altra limitazione è che il database non può essere esaustivo. È quindi possibile che Vera vi dica che non lo sa anche se l’argomento è già stato verificato. Ma secondo i nostri test, Vera è oggi il bot conversazionale più efficace per verificare le informazioni in tempo reale. In futuro, i suoi creatori intendono rendere Vera multilingue e offrire il servizio gratuitamente su altre piattaforme e social network.
Lotta contro i discorsi cospiratori
Oltre a consentire questo processo di verifica in tempo reale, questo tipo di agente conversazionale potrebbe anche limitare, tra alcuni utenti, l’adesione alle teorie del complotto. Questo è ciò che mostra un recente studio pubblicato sulla rivista scientifica Natura. « Molte persone che credono fermamente in teorie del complotto apparentemente infondate potrebbero cambiare idea quando vengono presentate prove convincenti. (…) I dialoghi con l’IA riducono permanentemente le convinzioni complottiste, anche tra i credenti più ferventi », concludono i ricercatori.
Per visualizzare questo contenuto X (Twitter), è necessario autorizzare la misurazione dell’audience e i cookie pubblicitari.
Accettare
Gestisci le mie scelte
Per Florian Gauthier, “ l’intelligenza artificiale è un ottimo strumento per diffondere informazioni false. Ma l’intelligenza artificiale può anche essere, al contrario, una vera via di risposta per combattere la disinformazione ».
Related News :