Sin dal suo lancio, ChatGPT Search ha rivoluzionato le abitudini di ricerca online, al punto da sollevare alcune domande. Perché questa mania? Promette un’esperienza fluida e su misura, quasi spogliata del solito caos dei motori tradizionali come Google o Bing. Tuttavia, a un esame più attento, questo strumento suscita anche riluttanza, soprattutto tra i redattori di contenuti che a volte vedono il loro lavoro distorto o attribuito erroneamente. Quindi la domanda è semplice: questo nuovo ecosistema digitale è un’opportunità o un rischio per i produttori di contenuti, una nuova sfida nel content marketing?
Collaborazione tra OpenAI ed editori: un’ambiguità persistente
OpenAI continua a proclamare a gran voce che rispetta le preferenze degli editori grazie al file robots.txt – uno strumento tecnico che consente ai siti di controllare l’accesso ai propri contenuti indicizzando i robot.
>Una bella iniziativa su carta…
Ancora, la realtà è molto più sfumata. Questo dossier è lungi dall’essere una panacea e, nella pratica, molti editori si sentono ancora esclusi o scarsamente rappresentati.
Alcuni colossi come Condé Nast o l’Associated Press hanno firmato accordi vantaggiosi. Ma che dire degli editori più piccoli? Spesso non hanno alcun controllo su come viene utilizzato il loro contenuto.
Ricerca e attribuzione ChatGPT: cosa non funziona
Forse ti sarai già chiesto: “Come puoi essere sicuro che le informazioni che stai visualizzando provengano dalla fonte giusta?” »
Non sei solo!
IL Tow Center ha condotto uno studio su 200 citazioni di 20 editori e le conclusioni sono a dir poco preoccupanti. La ricerca ChatGPT produce risposte errate o parzialmente false in oltre il 75% dei casi (153 casi su 200).
Ancora più allarmante, in soli In 7 casi, il chatbot ha ammesso la propria incapacità di fornire una risposta accurata.
Prendiamo l’esempio di un articolo del New York Times su una specie di balene in via di estinzione. Questa analisi era stata attribuita a un sito di terze parti che aveva semplicemente plagiato l’originale.
Gli accordi di licenza cambiano qualcosa?
Per il test il Tow Center ha scelto degli editori, alcuni dei quali avevano accordi di licenza con OpenAI. Altri, invece, avevano bloccato l’accesso ai robot, e altri ancora avevano addirittura procedimenti giudiziari pendenti contro OpenAI.
Il fatto è che anche editori rispettabili come il New York Post e The Atlantic, che hanno consentito a tutti i bot di accedere ai loro siti, sono vittime di contenuti travisati o citati in modo impreciso.
E altri editori come il New York Times, con cause legali pendenti e con i web crawler bloccati, continuano a essere citati da ChatGPT Search come fonti di alcune citazioni selezionate.
In altre parole, un accordo di licenza non garantisce attribuzioni esatte. E d’altro canto, anche se blocchi l’accesso ai bot, anche questo non garantisce che i tuoi contenuti non verranno pubblicati.
Quindi, restate vigili.
Nel novembre 2024, ad esempio, più di 15 milioni di utenti americani hanno utilizzato strumenti di intelligenza artificiale come ChatGPT Search per le loro ricerche. La portata di questi errori è quindi immensa!
Allucinazioni: quando l’IA inventa per te
Uno dei maggiori problemi con ChatGPT Search è il cosiddetto «allucinazioni».
Quando l’intelligenza artificiale non può accedere a una fonte affidabile, tende a colmare le lacune inventando risposte plausibili, ma false. Non ti sembra una cosa grave?
Tuttavia, questi errori hanno conseguenze molto reali: amplificano la diffusione di contenuti errati, e spesso a scapito degli autori originali.
Visibilità diseguale per gli editori
Potresti aver notato che i risultati della ricerca ChatGPT sono spesso incoerenti?
La stessa query può produrre risposte diverse da un utilizzo all’altro. Ciò è spiegato dai parametri di temperatura di GPT-4, che favoriscono il variabilità delle risposte, ma a scapito dell’affidabilità.
Facciamo un esempio concreto.
In una prima ricerca, una citazione da un articolo del Washington Post è stata attribuita al New York Times. In un secondo test, la citazione era corretta. Capirai che tali incoerenze minano la fiducia degli utenti.
Per OpenAI, limitare queste variazioni e dare priorità alla precisione dovrebbero quindi essere aree prioritarie.
Quale futuro per gli editori?
Come sai, il riconoscimento è fondamentale per i marchi dei media. Tuttavia, con questi errori di attribuzione ricorrenti, ChatGPT Search indebolisce la visibilità e la credibilità degli editori.
I consumatori stanno diventando confusi su chi sta creando i contenuti, poiché sviluppano una crescente dipendenza dagli strumenti di intelligenza artificiale, a scapito degli editori originali.
Aggiungete a ciò il rischio di vedere i vostri contenuti diluiti tra una moltitudine di risultati aggregati e avrete una vera minaccia per il giornalismo di qualità.
Secondo Mat Honan, redattore capo del MIT Tech Review, gli editori si ritrovano bloccati. Non ce l’hanno nessun modo per garantire una rappresentazione accurata o addirittura garantire la visibilità dei propri contenuti nella ricerca ChatGPT.
Cosa puoi richiedere come editore di contenuti
Per contrastare questi abusi si possono mettere in atto diverse soluzioni:
- Maggiore trasparenza: OpenAI deve informarti chiaramente su come i tuoi contenuti vengono utilizzati e referenziati;
- Partenariati equi: È fondamentale che anche i piccoli editori possano accedere ad accordi vantaggiosi;
- Focus sulla precisione: Promuovere l’affidabilità dei risultati piuttosto che la loro variabilità.
Insomma, ChatGPT Search rappresenta un importante punto di svolta per gli strumenti di ricerca, ma il suo impatto sul settore dei media rimane ambivalente.
Se vuoi sfruttare questa tecnologia, resta vigile e chiedi garanzie. Gli strumenti di intelligenza artificiale nel marketing digitale o gli strumenti di intelligenza artificiale nell’e-commerce e altri non devono solo innovare, ma devono anche rispettare e promuovere il lavoro degli editori.