Possiamo fidarci ciecamente dell’intelligenza artificiale? Quando si tratta di recupero delle informazioni, sembra di no. In ogni caso, questa è la lezione che possiamo imparare dopo lo scandalo mediatico avvenuto negli Stati Uniti qualche giorno fa.
Tutto è iniziato dalla CNN che ha cercato di stabilire precedenti storici per la grazia presidenziale familiare (in riferimento a Joe Biden che ha graziato suo figlio anche se aveva assicurato che non l’avrebbe mai fatto). Ana Navarro-Cardenas, figura molto nota del canale, ha parlato con sicurezza della grazia concessa dal presidente Woodrow Wilson al suo presunto cognato, un certo Hunter deButts. Questa informazione, ripresa da diversi media, si è diffusa rapidamente sui social network.
Di fronte alle domande sulle sue fonti, la commentatrice ha risposto senza mezzi termini: “Prendi il controllo di ChatGPT”. Una risposta che ha dato il via a un’indagine approfondita, rivelando non solo che Hunter deButts non è mai esistito, ma anche quello altri “fatti storici” ampiamente riportati erano altrettanto fittizi. Tra questi, la presunta grazia di George HW Bush a suo figlio Neil, o quella di Jimmy Carter a suo fratello Billy.
Non credere all’intelligenza artificiale
Questo caso è solo la punta dell’iceberg. La ricerca mostra che gli strumenti di intelligenza artificiale generativa come ChatGPT commettono errori più di tre quarti delle volte quando si tratta di citare fonti accurate. Una constatazione allarmante se si considera che questi strumenti sono sempre più utilizzati da giornalisti, ricercatori e studenti.
Il caso di Jeff Hancock, fondatore dello Stanford Social Media Lab e riconosciuto esperto di disinformazione, è particolarmente rivelatore. Lui stesso è stato indotto con l’inganno a utilizzare GPT-4 per generare un elenco di riferimenti bibliografici, ritrovandosi con citazioni inesistenti in un documento ufficiale. Se anche gli esperti possono cadere nella trappola, che dire del grande pubblico?
Un problema sistemico che minaccia l’informazione
La differenza fondamentale tra i motori di ricerca tradizionali e i “motori di risposta” basati sull’intelligenza artificiale risiede nel loro approccio. Ricerca Google classici collegamenti a fonti primarie che l’utente può consultare e verificare. Al contrario, le IA generative producono risposte che appaiono coerenti ma spesso impossibili da verificare.
Questa nuova realtà pone un grosso problema: la facilità d’uso di questi strumenti incoraggia la pigrizia intellettuale. Perché perdere tempo a controllare le fonti quando un’intelligenza artificiale ci dà una risposta immediata e apparentemente credibile? Questa tendenza contribuisce al generale deterioramento del nostro ambiente informativo, già minato dalla disinformazione sui social network.
Le conseguenze si fanno sentire ben oltre il mondo accademico. Da errori apparentemente innocui, come l’intelligenza artificiale di Google che afferma che le volpi maschi sono monogami, a gravi malintesi sugli eventi attuali, la nostra intera capacità di distinguere i fatti dalla finzione è in pericolo. Quindi, in attesa che ChatGPT migliori, è meglio affidarsi al buon vecchio Google e alla tua capacità di incrociare le informazioni.
- Una cascata di disinformazione sulle grazie presidenziali statunitensi ha messo in luce i pericoli derivanti dall’affidarsi all’intelligenza artificiale generativa per il recupero delle informazioni.
- Strumenti come ChatGPT sbagliano in oltre il 75% dei casi quando si tratta di citare le fonti, anche gli esperti ne sono vittime.
- A differenza dei motori di ricerca tradizionali, le IA generative non possono risalire a fonti primarie, creando un pericoloso precedente per la nostra capacità di verificare le informazioni.
???? Per non perdere nessuna novità di Presse-citron, seguici su Google News e WhatsApp.
Related News :