L’intelligenza artificiale di Ricerca Google ha affermato falsamente che Obama è musulmano. Ora sta disattivando alcuni risultati

L’intelligenza artificiale di Ricerca Google ha affermato falsamente che Obama è musulmano. Ora sta disattivando alcuni risultati
L’intelligenza artificiale di Ricerca Google ha affermato falsamente che Obama è musulmano. Ora sta disattivando alcuni risultati
-


New York
CNN

Google ha promesso che i suoi nuovi strumenti di ricerca basati sull’intelligenza artificiale “faranno il lavoro per te” e renderanno la ricerca di informazioni online più rapida e semplice. Ma pochi giorni dopo il lancio, l’azienda sta già riportando alcuni risultati sostanzialmente errati.

Google all’inizio di questo mese ha introdotto uno strumento di panoramica dei risultati di ricerca generati dall’intelligenza artificiale, che riassume risultati di ricerca in modo che gli utenti non debbano fare clic su più collegamenti per ottenere risposte rapide alle loro domande. Ma la funzionalità è stata criticata questa settimana dopo aver fornito informazioni false o fuorvianti alle domande di alcuni utenti.

Ad esempio, diversi utenti hanno pubblicato su X che il riepilogo dell’intelligenza artificiale di Google diceva quello precedente Presidente Barack Obama è musulmano, un malinteso comune. In effetti, Obama è cristiano. Un altro utente ha pubblicato che a Il riepilogo di Google AI afferma che “nessuno dei 54 paesi africani riconosciuti inizia con la lettera ‘K'” – dimenticando chiaramente il Kenya.

Venerdì Google ha confermato alla CNN che le panoramiche dell’intelligenza artificiale per entrambe le query erano state rimosse per violazione delle politiche dell’azienda.

“La stragrande maggioranza delle panoramiche AI ​​fornisce informazioni di alta qualità, con collegamenti per scavare più a fondo nel web”, ha detto in una nota la portavoce di Google Colette Garcia, aggiungendo che alcuni altri esempi virali di errori di intelligenza artificiale di Google sembrano essere stati immagini manipolate. “Abbiamo condotto test approfonditi prima di lanciare questa nuova esperienza e, come per altre funzionalità che abbiamo lanciato nella Ricerca, apprezziamo il feedback. Stiamo intraprendendo azioni rapide, ove opportuno, in base alle nostre politiche sui contenuti.”

La parte inferiore di ogni panoramica della ricerca sull’intelligenza artificiale di Google riconosce che “l’intelligenza artificiale generativa è sperimentale”. E l’azienda afferma di condurre test progettati per imitare potenziali malintenzionati nel tentativo di evitare che risultati falsi o di bassa qualità vengano visualizzati nei riepiloghi dell’intelligenza artificiale.

Le panoramiche di ricerca di Google fanno parte della più ampia spinta dell’azienda a incorporare la sua tecnologia Gemini AI in tutti i suoi prodotti mentre tenta di tenere il passo nella corsa agli armamenti dell’IA con rivali come OpenAI e Meta. Ma il disastro di questa settimana mostra il rischio che l’aggiunta dell’intelligenza artificiale – che ha la tendenza a dichiarare con sicurezza informazioni false – potrebbe minare la reputazione di Google come fonte affidabile per la ricerca di informazioni online.

Anche nelle ricerche meno serie, la panoramica dell’intelligenza artificiale di Google sembra talvolta fornire informazioni errate o confuse.

In un test, la CNN ha chiesto a Google “quanto sodio c’è nel succo di sottaceti”. La panoramica dell’intelligenza artificiale ha risposto che una porzione da 8 once fluide di succo di sottaceti contiene 342 milligrammi di sodio ma che una porzione inferiore alla metà (3 once fluide) conteneva più del doppio di sodio (690 milligrammi). (Il succo di sottaceti Best Maid, in vendita su Walmart, elenca 250 milligrammi di sodio in appena 1 oncia.)

La CNN ha anche cercato: “dati utilizzati per la formazione sull’intelligenza artificiale di Google”. Nella sua risposta, la panoramica sull’intelligenza artificiale ha riconosciuto che “non è chiaro se Google impedisca l’inclusione di materiali protetti da copyright” nei dati online raccolti per addestrare i suoi modelli di intelligenza artificiale, riferendosi a una grave preoccupazione su come operano le aziende di intelligenza artificiale.

Non è la prima volta che Google deve rinunciare alle capacità dei suoi strumenti di intelligenza artificiale per un errore imbarazzante. A febbraio, la società ha sospeso la capacità del suo generatore di foto AI di creare immagini di persone dopo essere stato criticato per aver prodotto immagini storicamente imprecise che mostravano in gran parte persone di colore al posto dei bianchi.

La pagina Web Search Labs di Google consente agli utenti nelle aree in cui sono state implementate le panoramiche di ricerca AI di attivare e disattivare la funzionalità.

-

PREV Voyager 1: Dopo mesi di silenzio, la sonda mostra nuovamente segni di vita
NEXT “Nessun piano B”: i repubblicani si schierano attorno a Trump