- ChatGPT ha negato 250.000 richieste di immagini deepfake di candidati nell'ultimo mese, ha affermato OpenAI.
- Ha risposto a milioni di richieste di voto indirizzando gli utenti a fonti esterne ufficiali.
- Alcuni altri chatbot hanno adottato un approccio diverso.
Nel periodo precedente alle elezioni presidenziali di questa settimana, OpenAI ha risposto a migliaia di richieste per generare immagini false dei candidati.
All’inizio dell’anno, la società di intelligenza artificiale aveva affermato che i suoi prodotti di intelligenza artificiale avevano “guardie” per prevenire abusi, come deepfake o chatbot che impersonano candidati.
L'annuncio è arrivato tra le preoccupazioni che l'intelligenza artificiale avrebbe causato il caos durante la campagna, sfornando deepfake e teorie cospirative da diffondere online da parte degli utenti. A gennaio, gli elettori del New Hampshire hanno ricevuto chiamate robotizzate deepfake da parte di un falso presidente Joe Biden che li scoraggiava dal votare alle primarie presidenziali dello stato di quel mese.
OpenAI ha affermato che ChatGPT ha respinto circa 250.000 richieste di generare immagini dei candidati utilizzando DALL-E, il generatore di arte AI dell'azienda, nel mese prima delle elezioni.
“Nel mese precedente il giorno delle elezioni, stimiamo che ChatGPT abbia rifiutato oltre 250.000 richieste per generare immagini DALL·E del presidente eletto Trump, del vicepresidente Harris, del vicepresidente eletto Vance, del presidente Biden e del governatore Walz”, ha affermato OpenAI in un post sul blog venerdì.
OpenAI aveva precedentemente affermato che avrebbe incaricato ChatGPT di rispondere a domande logistiche sul voto indirizzando gli utenti a farlo CanIVote.orgun sito americano di informazioni sul voto gestito dall'Associazione nazionale dei segretari di Stato. ChatGPT ha fornito circa 1 milione di risposte chiedendo agli utenti di controllare il sito di voto nel mese precedente al 5 novembre, ha affermato la società.
OpenAI ha anche affermato che il giorno delle elezioni risponderà alle domande sui risultati elettorali indirizzando gli utenti a testate giornalistiche come Associated Press e Reuters.
“Circa 2 milioni di risposte ChatGPT includevano questo messaggio il giorno delle elezioni e il giorno successivo”, ha affermato la società nel post sul blog di venerdì.
ChatGPT ha anche evitato di esprimere opinioni politiche sui candidati, a differenza dei chatbot come Grok AI di Elon Musk, che esprimevano entusiasmo per la vittoria di Trump.