DayFR Italian

Microsoft lancia tardivamente un attacco alle “allucinazioni” della sua intelligenza artificiale

-

L’azienda di Redmond sta lanciando uno strumento chiamato “Correction” che dovrebbe identificare e offrire riscritture di testi generati dall’intelligenza artificiale. Questo strumento si basa anche su modelli linguistici. Lo strumento arriva in ritardo, mentre in alcune aziende si insinuano i dubbi sulla fiducia da riporre nell’intelligenza artificiale generativa.

Come ammette ora Microsoft nel video promozionale del suo nuovo strumento “Correzione”, “ Le “allucinazioni” dell’intelligenza artificiale possono influire sull’accuratezza, sulla fiducia degli utenti e sulla credibilità della tua app ».

Fino a poco tempo fa, le aziende di intelligenza artificiale generativa distribuivano in modo massiccio questo tipo di strumenti senza preoccuparsi di queste conseguenze. Eppure queste “allucinazioni” – o meglio errori in cui il sistema produce testi o immagini incoerenti – sono presenti fin dall’inizio dell’uso pubblico dei modelli di grandi dimensioni.

Cerotti per evitare allucinazioni

Queste aziende stanno iniziando a offrire alcune patch per correggere gli errori nei loro modelli. Sembra anche che, poiché gli ambienti finanziari parlano sempre più di una bolla dell’intelligenza artificiale, debbano mostrare agli investitori che i loro sistemi possono essere migliorati. A giugno, OpenAI ha annunciato il suo CriticGPT per offrire correzioni agli errori di codice generati da GPT-4. Alla fine di giugno anche Google ha proposto il proprio sistema.

Qui, con Correction, Microsoft garantisce di poter offrire uno strumento in grado di rilevare e riscrivere contenuti errati generati da qualsiasi intelligenza artificiale generativa. “ Consentire ai nostri clienti di comprendere e agire in base a contenuti non comprovati e allucinazioni è fondamentale, soprattutto perché la domanda di affidabilità e precisione nei contenuti generati dall’intelligenza artificiale continua a crescere. aumento », spiega l’azienda.

Microsoft offre questo strumento agli utenti della sua API Content Safety di Azure AI che possono utilizzarlo su testo generato da qualsiasi modello.

Interrogata da TechCrunch, Microsoft afferma che “ La correzione è alimentata da un nuovo processo di utilizzo di modelli linguistici piccoli e grandi per allineare l’output a determinati documenti “. L’azienda aggiunge: “ Ci auguriamo che questa nuova funzionalità possa aiutare i creatori e gli utenti dell’intelligenza artificiale generativa in campi come la medicina, dove gli sviluppatori di applicazioni stabiliscono che l’accuratezza della risposta è di notevole importanza ».

Modelli per correggere altri modelli

Reindirizza inoltre a un articolo recentemente pubblicato online dai ricercatori Microsoft su arXiv. Come osserva TechCrunch, “ il documento omette dettagli essenziali, come i set di dati utilizzati per addestrare i modelli ».

Questo articolo propone una sequenza di due modelli linguistici per analizzare la frase generata dal modello testato. Il primo modello di correzione, un piccolo modello, classificherà la frase come “allucinazione” o meno. Se la frase viene categorizzata come tale, viene utilizzato un altro modello più ampio per generare una spiegazione di questa categorizzazione. Se questo modello considera che la frase generata non è un’“allucinazione”, un meccanismo di feedback affina i risultati del primo modello.

Il sistema di Microsoft, che utilizza la generazione aumentata di recupero (RAG), deve fare affidamento su una serie di documenti forniti dall’utente come “base di ragionamento”.

Le allucinazioni sono intrinseche ai modelli linguistici

Interrogato da TechCrunch su questo sistema, Os Keyes, dottorando presso l’Università di Washington, spiega che ” cercare di rimuovere le allucinazioni dall’intelligenza artificiale generativa è come cercare di rimuovere l’idrogeno dall’acqua ».

Per Mike Cook, ricercatore della Queen Mary University, questa correzione nel tempo e senza trasparenza potrebbe dare un falso senso di scomparsa delle allucinazioni. “ Microsoft, come OpenAI e Google, hanno creato questa situazione problematica in cui si fa affidamento sui modelli in scenari in cui spesso sono sbagliati » spiega a TechCrunch. Ma per Mike Cook, “ Microsoft sta ora ripetendo l’errore a un livello superiore. Diciamo che questo ci porta dal 90% di sicurezza al 99% di sicurezza.il problema non è mai stato realmente in quel 9%. Si tratterà sempre di quell’1% di errori che non rileviamo ancora ».

Una perdita di fiducia da parte dei clienti

Un problema per Microsoft e i suoi concorrenti, le “allucinazioni” stanno cominciando a minare la fiducia degli utenti nei loro nuovi strumenti. I nostri colleghi di The Information hanno spiegato all’inizio di settembre che alcuni clienti Microsoft non utilizzano più l’intelligenza artificiale di Office che dovrebbe aiutarli. Alla fine di luglio Business Insider ha riferito che un’azienda dell’industria farmaceutica ha abbandonato dopo sei mesi l’accordo con Microsoft riguardo a Copilot, perché gli strumenti offerti non erano sufficientemente efficienti da giustificare l’investimento.

Secondo un sondaggio condotto da KPMG, sei dirigenti tecnologici britannici su dieci affermano che le allucinazioni sono il problema più grande quando si adottano strumenti di intelligenza artificiale generativa.

Related News :