Dopo il RAG già adottato da molte aziende, il RIG offre un approccio innovativo per generare risposte più precise e contestualizzate.
Un nuovo approccio per rendere le risposte LLM più affidabili. Dopo l'adozione massiccia dei sistemi RAG nelle aziende, che consentono di contestualizzare un LLM su base documentaria, si sta sviluppando un approccio nuovo e più intelligente. Essendo passato sotto il radar dei media, RIG, per Retrieval Interleaved Generation, consente a modelli linguistici di grandi dimensioni di fornire risposte dettagliate e documentate. Spiegazioni tecniche, vantaggi e svantaggi… Vi diamo le chiavi di questo nuovo approccio innovativo.
RAG vs RIG: funzionamento opposto
Il RIG è stato reso popolare dai ricercatori di Google come parte del lavoro per ridurre le allucinazioni negli LLM. Lo studio, pubblicato a settembre 2024, presenta in particolare i vantaggi del RIG rispetto al RAG. RAG e RIG differiscono fondamentalmente nel modo in cui interagiscono con le basi di conoscenza. In un sistema RAG tradizionale, il processo è lineare e avviene in tre fasi distinte: in primo luogo, la domanda dell'utente viene convertita in un vettore digitale tramite un modello di incorporamento. Quindi, questo vettore viene utilizzato per cercare i frammenti di documento più simili in un database vettoriale. Infine, questi frammenti vengono forniti come contesto al LLM che genera la sua risposta in un colpo solo.
Il RIG adotta un approccio più interattivo e iterativo. Invece di fare affidamento su una semplice ricerca di similarità vettoriale, il LLM è addestrato a formulare esso stesso query strutturate (nel linguaggio del database, ad esempio SQL) durante tutta la generazione di risposte. Concretamente, quando il LLM genera del testo e deve citare un fatto o una statistica, si interrompe per formulare una precisa query al database. Ad esempio, se scrive “Il tasso di disoccupazione in Francia nel 2023 era”, il modello genererà automaticamente una query strutturata per ottenere queste esatte informazioni, quindi integrerà la risposta nel suo testo.
Molti vantaggi, implementazione complessa
Grazie alla sua architettura agile, il RIG consente al LLM di generare risposte più pertinenti. Il modello impara a identificare le informazioni di cui ha bisogno mentre costruisce la sua risposta. Nel caso di RAG, il modello non ha la capacità di interagire direttamente con il database e deve accontentarsi di un contesto iniziale. Ad esempio, con il RIG, per una domanda complessa su un argomento storico, il LLM potrebbe prima cercare il contesto generale dell'epoca, poi eventi specifici e infine dettagli specifici sugli attori coinvolti. Un metodo iterativo che offre risposte meglio documentate rispetto al RAG.
Sebbene RIG sia promettente, la sua implementazione pratica nella produzione rimane complessa. Il modello deve infatti essere messo a punto per avere la capacità di effettuare query strutturate con il linguaggio di database appropriato. Inoltre, RIG comporta diverse query al database e può quindi generare un costo computazionale maggiore rispetto a RAG. Infine, interrogare direttamente il database più volte può comportare una latenza leggermente più elevata nella risposta all'utente finale.
RAG, RIG: casi d'uso definiti
Sebbene RIG rappresenti una nuova direzione promettente, l’approccio RAG rimarrà probabilmente la soluzione più semplice per la maggior parte dei casi d’uso generali in cui l’utente ha semplicemente bisogno di una risposta concisa e fattuale. RAG brilla quando la query dell'utente è semplice e può essere affrontato con semplice documentazione testuale.
Da parte sua, RIG eccelle nei casi in cui le query sono complesse e richiedono un'interazione iterativa con un database strutturato. Ad esempio, per interrogare un database SQL, il RIG consente di costruire una risposta precisa navigando tra diversi livelli di informazioni.
Per le aziende, testare e sperimentare RIG sarà essenziale per valutare il potenziale in casi d’uso mirati come agenti specializzati o sistemi che richiedono risposte basate su dati dinamici e complessi. Tuttavia, per la maggior parte dei chatbot generici, RAG rimane la soluzione più rilevante.
Related News :