- Le società di intelligenza artificiale hanno adeguato le loro offerte e linee guida elettorali prima del giorno delle elezioni.
- Perplexity ha lanciato un hub di informazioni sulle elezioni con informazioni su candidati, logistica del voto e risultati.
- Nel frattempo, Google sta limitando i contenuti elettorali generati dall’intelligenza artificiale per evitare i rischi che ne derivano.
ChatGPT non esisteva durante le ultime elezioni presidenziali del 2020. Suo lanciato due anni fa ha dato il via a un’ondata di chatbot e strumenti di intelligenza artificiale generativa integrati in prodotti di consumo popolari come Ricerca Google.
Prima delle elezioni, le aziende dietro i prodotti dovevano decidere quali eventuali restrizioni avrebbero implementato sui contenuti generati dall’intelligenza artificiale relativi alle elezioni, analizzando i rischi associati.
Alcuni, come la startup di intelligenza artificiale Perplexity, si propongono a gran voce nell’uso dell’intelligenza artificiale per rispondere a domande sulle elezioni.
Il motore di ricerca AI ha lanciato un “hub di informazioni sulle elezioni” dedicato che utilizza l'intelligenza artificiale per fornire informazioni sulle imminenti elezioni e sul monitoraggio dei risultati. L'hub include dettagli sui requisiti di voto, come trovare il tuo seggio elettorale e i tempi delle votazioni e un'analisi riepilogativa basata sull'intelligenza artificiale sulle misure elettorali e sui candidati, ha scritto la società in un annuncio.
“Perplexity utilizza un processo chiamato Retrieval-Augmented Generation per identificare le informazioni rilevanti e sintetizzarle in un modo adattato alla richiesta dell’utente”, ha detto a Business Insider la portavoce di Perplexity, Sara Platnick.
Per le domande relative alle elezioni, la società utilizza un “insieme selezionato” di fonti imparziali e verificate, ha affermato la società. L'hub separato non utilizza la conoscenza memorizzata dai dati di addestramento del modello nelle sue risposte, il che aiuta a ridurre al minimo le allucinazioni, ha detto Platnick a BI.
Martedì Perplexity inizierà anche a offrire aggiornamenti in tempo reale sulle elezioni utilizzando i dati dell'Associated Press. Altre risposte utilizzeranno informazioni provenienti da Democracy Works e altre fonti fattuali indipendenti come Ballotpedia e testate giornalistiche, ha affermato Platnick.
Alon Yamin, cofondatore e CEO della piattaforma di analisi testuale basata sull'intelligenza artificiale Copyleaks, ha affermato che l'approccio di Perplexity “può certamente aiutare a filtrare e contestualizzare i contenuti”, aiutando gli utenti ad accedere a fonti affidabili.
Yamin ha affermato che ci sono potenziali vantaggi derivanti dall’uso dell’intelligenza artificiale per le informazioni elettorali. L’intelligenza artificiale può fornire aggiornamenti in tempo reale e aiutare a identificare tendenze, sentimento degli elettori e questioni chiave.
Tuttavia, Yamin ha affermato che la possibilità di allucinazioni legate all’intelligenza artificiale e di problemi di precisione presenta dei rischi.
Altre aziende stanno adottando approcci diversi. OpenAI continuerà a integrare le risposte relative alle elezioni in ChatGPT fornendo allo stesso tempo alcune funzionalità extra alla luce delle elezioni.
A partire dal 5 novembre, coloro che chiedono a ChatGPT domande sui risultati elettorali vedranno un messaggio che incoraggia gli utenti a controllare fonti come Associated Press e Reuters, o comitati elettorali statali e locali per “le informazioni più complete e aggiornate”, dice il sito. ha detto la società in un post aggiornato il 31 ottobre.
OpenAI ha affermato che sta “testando attivamente le misure di sicurezza” messe in atto nell'ultimo anno e monitorando eventuali problemi. Ha inoltre affermato che continuerà ad adeguare le sue misure di protezione, che includono la trasparenza sui contenuti generati dall’intelligenza artificiale e l’impedimento ai chatbot di fingere di essere persone reali.
ChatGPT indirizzerà inoltre gli utenti al sito statunitense di informazioni sul voto CanIVote.org quando verranno poste domande procedurali relative alle elezioni.
Claude di Anthropic ha implementato in modo simile una funzione pop-up che consente agli utenti che chiedono informazioni sul voto di essere reindirizzati a TurboVote, una risorsa apartitica di Democracy Works, ha scritto in un post.
Anthropic dispone di altri guardrail, incluso il divieto agli utenti di utilizzarlo per promuovere un candidato o un problema specifico. Ha affermato che impedirebbe anche che il chatbot venga utilizzato per generare disinformazione sulle leggi elettorali, sui candidati o su argomenti correlati. Nel suo post, la società ha affermato che i risultati saranno limitati al solo testo per contribuire a eliminare “il rischio di deepfake legati alle elezioni”.
Sebbene gli aggiornamenti elettorali in tempo reale possano essere utili per gli utenti, i contenuti elettorali generati dall’intelligenza artificiale comportano una serie di rischi.
Yamin ha affermato che l’intelligenza artificiale può diffondere informazioni distorte, interpretare erroneamente i dati e creare false narrazioni. Ha anche aggiunto che questi modelli sono “buoni quanto i dati su cui sono formati”, il che apre il rischio che le risposte generate dall'intelligenza artificiale riflettano la parzialità dei dati su cui sono formati.
I malintesi potrebbero essere amplificati se l’intelligenza artificiale interpretasse erroneamente le informazioni e fornisse risultati imprecisi, soprattutto in un ambiente elettorale in rapido movimento e seguito da vicino, ha detto Yamin a BI.
Googleche ha riscontrato alcuni fallimenti dell'intelligenza artificiale molto pubblicizzati con Gemini AI e AI Overviews, ha scelto di implementare vincoli su ciò che gli utenti possono chiedere ai suoi prodotti di intelligenza artificiale in merito alle elezioni. Google ha affermato che impedirà al suo chatbot AI Gemini di rispondere a domande su elezioni “per un'abbondanza di cautela.”
Una ricerca simile sul prodotto di ricerca principale di Google martedì non ha attivato un riepilogo della panoramica AI, mostrando il carosello di storie degli editori “Top Stories”.
Google non ha risposto immediatamente a una richiesta di commento da parte di Business Insider.
Brad Carson, cofondatore e presidente dell'organizzazione no-profit Americans for Responsible Innovation, ha dichiarato a BI che, sebbene l'approccio di Google sia encomiabile, non rappresenta una soluzione globale al problema.
Carson ha affermato che combattere la disinformazione “non è un compito facile” e, sebbene sia intelligente per le aziende cercare di fare di più per limitare la disinformazione, il governo dovrebbe lavorare su una legislazione che imponga alle società di intelligenza artificiale di etichettare chiaramente le informazioni che forniscono agli utenti.
“Penso che altri prodotti probabilmente colmeranno il divario che Google sta colmando, ma penso che sia responsabilità di Google cercare di fare un passo indietro rispetto a questo,” ha detto Carson.