Uno studio mostra i limiti del motore di ricerca ChatGPT Search lanciato qualche settimana fa da OpenAI.
“Imprevedibile”, “impreciso”…questi sono i termini che designano i risultati del motore di ricerca recentemente integrato in ChatGPT. Nel suo studio il Tow Center for Digital Journalism dell’Università americana della Columbia sottolinea i fallimenti dello strumento quando viene utilizzato per informarsi su questioni di attualità.
1 149,99€
1 349,99€
Una scorta
Acquista su Fnac.com
Certezze che non lo sono
ChatGPT Search, o SearchGPT, è una sorta di risposta di OpenAI a Google. Sempre più utenti Internet utilizzano l’intelligenza artificiale per ottenere risposte alle loro domande. Pertanto, l’intelligenza artificiale ora si propone di navigare sul Web per loro e fornire loro le risposte che stanno cercando su un piatto.
Il problema, sottolinea la Columbia University, è la sicurezza con cui SearchGPT mostra i suoi risultati. Quando si tratta di argomenti di tendenza, ChatGPT va logicamente scroller sul Web alla ricerca di articoli di stampa che ne parlino. Tuttavia, alcuni media non consentono l’utilizzo di OpenAI nei propri dati… il che non impedisce a ChatGPT di entrare attraverso la finestra.
I ricercatori hanno chiesto a SearchGPT di attribuire correttamente 200 citazioni di articoli di notizie ai rispettivi autori. Quaranta di loro provenivano da siti che bloccano l’accesso a ChatGPT. Lo strumento ha comunque rispettato l’esercizio e ha affermato che alcune citazioni erano firmate da questo o quell’autore, diffondendo così informazioni false.
Il dubbio non esiste
In sostanza, il problema è che l’intelligenza artificiale, e in questo caso quella di OpenAI, sembra particolarmente imbarazzata ad ammettere che non è sicura o che ci sia un dubbio sulla veridicità delle informazioni condivise.
“In totale, ChatGPT ha dato risposte parzialmente o completamente errate in 153 occasioni, anche se ha riconosciuto la sua incapacità di rispondere con precisione a una domanda solo sette volte. Solo in questi sette casi il chatbot ha utilizzato parole di riserva o espressioni come “sembra”, “è possibile” O “potrebbe essere in grado”o affermazioni come “Non sono riuscito a individuare l’articolo esatto”. »
Revisione del giornalismo della Columbia
Quello che devi ricordare è che SearchGPT non è un giornalista, e la sua funzione è rispondere alla tua domanda, costi quel che costi.
Prospettiva, incrociamento delle fonti e dubbio sono tutti fondamenti della professione che AI non possiede, e che rischiano di danneggiare ulteriormente l’immagine del giornalismo. Un giornalismo che, in questi tempi in cui la post-verità è ovunque, ha più che mai bisogno di essere sostenuto.