ChatGPT e altri: più veloci e meno affidabili

ChatGPT e altri: più veloci e meno affidabili
ChatGPT e altri: più veloci e meno affidabili
-

Chi sostiene che con il tempo ChatGPT e simili scriveranno meno falsità, faccia meglio a pazientare: i test più recenti rivelano che con due diversi metodi di “apprendimento”, questi “agenti conversazionali” commettono ancora più errori di prima quando vengono poste domande semplici .

I due metodi in questione sono, nel mondo degli sviluppatori di intelligenza artificiale, “addestrare” questi “robot” con più dati e più potenza di calcolo, oppure farli “adattare” (ritocchi) in risposta al feedback umano.

Tuttavia, un team del Politecnico di Valencia, in Spagna, ha testato i due metodi su ChatGPT della società OpenAI, LLaMA della società Meta e BLOOM della società BigScience. Il risultato: questi “modelli linguistici ampi”, come vengono chiamati, migliorano nel rispondere a domande complicate, come risolvere un lungo anagramma. Ma sono meno bravi in ​​questioni semplici come le addizioni.

Lo studio è stato pubblicato il 25 settembre sulla rivista Naturasotto il titolo chiaro I modelli linguistici più ampi e istruibili diventano meno affidabili.

La conseguenza è che con l’uno o l’altro dei due metodi di apprendimento aumenta la “capacità” di questi robot di dire il falso. E va da sé che le macchine non se ne rendono conto, prova ne è che non possono evitare di rispondere a una domanda quando non conoscono la risposta. Inoltre, non sono in grado di inviare all’umano che ha posto loro una domanda un avvertimento del tipo “fai attenzione, potrei aver commesso un errore”.

In altre parole, l’umiltà non fa parte della loro programmazione.

È questa stessa osservazione che ha portato all’inizio di quest’anno un trio di ricercatori di filosofia e scienze sociali a proporre il termine “bullshit” (stronzate, sciocchezze o stupidità) per designare la propensione di queste IA a dire qualsiasi cosa (gli sviluppatori di IA usano invece il termine “allucinazioni”, criticata perché tende troppo a “umanizzare” la macchina).

Gli esseri umani farebbero quindi bene, avvertono i ricercatori spagnoli, a non fidarsi delle risposte dell’intelligenza artificiale, per quanto impressionanti possano essere. Nell’immediato futuro, l’intelligenza artificiale sembra destinata a continuare a produrre falsità e gli esperti non hanno alcuna soluzione in vista.

Iscriviti alla nostra newsletter tentacolare

Incoraggiaci per il prezzo di un caffè

-

PREV immergendosi nel cuore del rientro atmosferico distruttivo di un satellite
NEXT le principali novità della regione