Lo strumento AI di Google sta producendo risposte fuorvianti che preoccupano gli esperti

Lo strumento AI di Google sta producendo risposte fuorvianti che preoccupano gli esperti
Lo strumento AI di Google sta producendo risposte fuorvianti che preoccupano gli esperti
-

Chiedi a Google se i gatti sono stati sulla luna e ti forniva un elenco classificato di siti Web in modo che tu potessi scoprire la risposta da solo.

Ora fornisce una risposta istantanea generata dall’intelligenza artificiale, che può essere corretta o meno.

“Sì, gli astronauti hanno portato i gatti sulla luna, hanno giocato con loro e hanno fornito loro cure”, ha detto il motore di ricerca di Google recentemente riorganizzato in risposta a una domanda di un giornalista dell’Associated Press.

E aggiungeva: “Ad esempio, Neil Armstrong disse: ‘Un piccolo passo per l’uomo’ perché era il passo di un gatto. Anche Buzz Aldrin schierò i gatti nella missione Apollo 11.”

Niente di tutto questo è vero. Errori simili – alcuni divertenti, altri falsi dannosi – sono stati condivisi sui social media da quando Google questo mese ha lanciato le panoramiche AI, un restyling della sua pagina di ricerca che spesso inserisce i riepiloghi in cima ai risultati di ricerca.

La nuova funzionalità ha allarmato gli esperti che avvertono che potrebbe perpetuare pregiudizi e disinformazione e mettere in pericolo le persone che cercano aiuto in caso di emergenza.

Quando Melanie Mitchell, ricercatrice di intelligenza artificiale presso il Santa Fe Institute nel New Mexico, ha chiesto a Google quanti musulmani sono stati presidenti degli Stati Uniti, ha risposto con sicurezza con una teoria del complotto da tempo sfatata: “Gli Stati Uniti hanno avuto un presidente musulmano, Barack Hussein Obama”.

Mitchell ha affermato che il riassunto conferma l’affermazione citando un capitolo di un libro accademico, scritto da storici. Ma il capitolo non conteneva affermazioni fasulle: si riferiva solo alla falsa teoria.

“Il sistema di intelligenza artificiale di Google non è abbastanza intelligente da capire che questa citazione non supporta effettivamente l’affermazione”, ha detto Mitchell in una e-mail all’AP. “Considerando quanto sia inaffidabile, penso che questa funzionalità di panoramica dell’intelligenza artificiale sia molto irresponsabile e dovrebbe essere messa offline.”

Google ha affermato in una dichiarazione venerdì che sta intraprendendo “un’azione rapida” per correggere gli errori – come le falsità di Obama – che violano le sue politiche sui contenuti; e usarlo per “sviluppare miglioramenti più ampi” che sono già in fase di implementazione. Ma nella maggior parte dei casi, Google afferma che il sistema funziona come dovrebbe grazie a test approfonditi prima del suo rilascio pubblico.

“La stragrande maggioranza delle panoramiche AI ​​fornisce informazioni di alta qualità, con collegamenti per scavare più a fondo nel web”, ha affermato Google in una dichiarazione scritta. “Molti degli esempi che abbiamo visto erano query non comuni e abbiamo anche visto esempi che sono stati manipolati o che non siamo riusciti a riprodurre”.

È difficile riprodurre gli errori commessi dai modelli linguistici dell’intelligenza artificiale, in parte perché sono intrinsecamente casuali. Funzionano prevedendo quali parole risponderebbero meglio alle domande poste loro in base ai dati su cui sono stati formati. Sono inclini a inventare cose, un problema ampiamente studiato noto come allucinazione.

L’AP ha testato la funzionalità AI di Google con diverse domande e ha condiviso alcune delle sue risposte con esperti in materia. Alla domanda su cosa fare in caso di morso di serpente, Google ha dato una risposta “straordinariamente approfondita”, ha affermato Robert Espinoza, professore di biologia presso la California State University, Northridge, che è anche presidente dell’American Society of Ichthyologists and Herpetologists.

Ma quando le persone si rivolgono a Google con una domanda di emergenza, la possibilità che la risposta fornita dall’azienda tecnologica includa un errore difficile da notare è un problema.

“Più sei stressato, frettoloso o di fretta, più è probabile che accetti solo la prima risposta che ti viene fuori”, ha detto Emily M. Bender, professoressa di linguistica e direttrice del Laboratorio di Linguistica Computazionale dell’Università di Washington. “E in alcuni casi, quelle possono essere situazioni critiche per la vita.”

Questa non è l’unica preoccupazione di Bender, che da diversi anni mette in guardia Google al riguardo. Quando i ricercatori di Google nel 2021 hanno pubblicato un articolo intitolato “Rethinking Research” che proponeva di utilizzare modelli linguistici di intelligenza artificiale come “esperti di dominio” in grado di rispondere alle domande in modo autorevole – proprio come stanno facendo ora – Bender e il collega Chirag Shah hanno risposto con un articolo che spiega perché ciò è stata una pessima idea.

Hanno avvertito che tali sistemi di intelligenza artificiale potrebbero perpetuare il razzismo e il sessismo riscontrati nell’enorme quantità di dati scritti su cui sono stati formati.

“Il problema con questo tipo di disinformazione è che ci stiamo nuotando dentro”, ha detto Bender. “E così è probabile che le persone vedano confermati i loro pregiudizi. Ed è più difficile individuare la disinformazione quando conferma i tuoi pregiudizi”.

Un’altra preoccupazione era più profonda: cedere il recupero delle informazioni ai chatbot stava degradando la serendipità della ricerca umana della conoscenza, l’alfabetizzazione su ciò che vediamo online e il valore di connettersi nei forum online con altre persone che stanno vivendo la stessa cosa.

Quei forum e altri siti web contano sul fatto che Google invii loro persone, ma le nuove panoramiche basate sull’intelligenza artificiale di Google minacciano di interrompere il flusso del traffico Internet redditizio.

Anche i rivali di Google hanno seguito da vicino la reazione. Il gigante della ricerca ha dovuto affrontare pressioni per più di un anno per fornire più funzionalità di intelligenza artificiale in quanto compete con OpenAI, produttore di ChatGPT, e con start-up come Perplexity AI, che aspira ad affrontare Google con la propria app di domande e risposte AI.

“Sembra che sia stato Google a farlo in fretta”, ha detto Dmitry Shevelenko, chief business officer di Perplexity. “Ci sono solo molti errori non forzati nella qualità.”

-

PREV due membri Daesh uccisi, ostaggi liberati
NEXT India. Incidente ferroviario “tragico” nel Bengala, ancora sconosciuto il bilancio delle vittime