Immagina un piccolo assistente sempre al tuo fianco. Una sorta di Grillo Parlante del futuro, che risponde alle tue domande, dà consigli e soprattutto agisce al tuo posto. Accede al tuo calendario, alle tue conversazioni, alle tue applicazioni preferite… Un’e-mail senza risposta? Scrive e invia. Il tuo bambino più piccolo non si è fatto controllare i denti da un anno? Fissa un appuntamento. Il tuo paio di scarpe ha trovato un acquirente su un’app? Convalida la questione. Pratico, anche se un po’ angosciante.
Più forti dei chatbot come ChatGPT e dei suoi 200 milioni di utenti attivi al mese, ecco gli “agenti”. La loro promessa: non produrre semplicemente contenuti da una semplice istruzione, ma agire in modo autonomo. “Siamo usciti dall’illusione che i grandi modelli linguistici, queste IA addestrate su enormi quantità di testo per produrre risposte vicine a quelle umane, abbiano conoscenza del mondo”, cconferma Pierre-Carl Langlais, ricercatore e co-fondatore della startup Pleias, che sviluppa modelli linguistici open Source, quindi liberamente accessibili. Grazie agli “agenti” siamo proiettati verso una nuova era. Quella di un’IA proattiva, capace di pensare e organizzarsi.
Con i suoi “agenti”, Salesforce afferma di essere l’azienda che renderà redditizia l’intelligenza artificiale
Nuove interazioni
Da Google a OpenAI a Meta, tutti gli operatori del settore guardano a questa nuova generazione di intelligenza artificiale. Ma per il momento tutti stanno cercando di capire che aspetto abbia questo Grillo Parlante. OpenAI e Meta, in particolare, vogliono creare sistemi multitasking e generalisti. Per altri, come i francesi LightOn e H o il colosso americano del software Salesforce, è meglio «agenti» iperspecializzato su compiti specifici. Meno onnipotente, ma più facile da implementare.
La difficoltà è anche trovare come affrontarli. Nelle ultime settimane è un formato audio che si è distinto. Lo strumento proviene da Google e si chiama NoteBookLM. La sua recente funzionalità “Panoramica audio”, che sintetizza i documenti in pochi clic e li trasforma in un podcast di dieci minuti, ha stupito la comunità AI. I due conduttori virtuali, sempre con tono caldo ed entusiasta, parlano di qualsiasi cosa: un rapporto di 250 pagine sull’ambiente, un articolo scientifico molto approfondito, un video YouTube di 2 ore… Ma anche di tutto ciò che è più banale. documento come un profilo LinkedIn, scambi di messaggi di testo o anche un estratto conto [sic]. Gli esperimenti di alcuni utenti di Internet sono diventati virali e sono stati condivisi milioni di volte.
Con i suoi “agenti”, Salesforce afferma di essere l’azienda che renderà redditizia l’intelligenza artificiale
Se NoteBookLM non è un agente, il suo successo testimonia il crescente interesse per nuove interazioni con la macchina, oltre il testo e la scrittura. Questo era anche l’obiettivo del piccolo team di Google Lab. Lo conferma Raiza Martin, product manager di questo progetto sperimentale che Google sta valutando di commercializzare La Tribuna. “Il nostro obiettivo era aiutare gli utenti a interagire con le fonti. L’audio è stato un buon vettore, ma non basta un riassunto letto da una voce sintetica. Volevamo creare qualcosa di divertente, utile e nuovo”.
Le aziende tecnologiche sono anche interessate a come aggiungere capacità di ragionamento e pianificazione all’intelligenza artificiale generativa. Competenze essenziali per poter creare questi famosi “agenti”. A settembre OpenAI ha presentato la sua nuova famiglia di modelli IA, che si chiama “o1” perché “azzera i contatori”. È in grado di ragionare meglio dell’intelligenza artificiale odierna organizzando “catene di pensieri” prima di rispondere, cioè suddividendo in fasi la sua risposta al problema posto.
o1 è un primo passo verso l’autonomia dell’IA promessa dall’industria. Mark Zuckerberg, fondatore e direttore di Meta, parla di un futuro in cui ogni creatore di contenuti su Instagram potrebbe avere il proprio “agente”, capace di gestire per lui le interazioni con la propria community. Anthropic, l’outsider americano creato da due ex dipendenti di OpenAI, ha recentemente impressionato con la sua dimostrazione di un’intelligenza artificiale in grado di utilizzare un computer in modo autonomo. Al grande pubblico, il video non sembra altro che clic irregolari del mouse. Ma per gli specialisti, questa funzionalità chiamata “Utilizzo del computer” è un passaggio essenziale. “Questo processo iterativo di tentativi ed errori, reso possibile dall’interazione con il computer, consente all’IA di imparare dalle proprie esperienze”, osserva Edouard Grave, ricercatore e cofondatore del laboratorio francese Kyutai.
Se il settore è alla ricerca di un nuovo slancio, è in parte perché “in questo momento soffia un vento di disillusione”, ammette Sylvain Duranton, direttore di BCG X, l’entità tecnologica della società di consulenza. Soprattutto tra le aziende, che credevano molto nei superpoteri dei grandi modelli linguistici per migliorare le proprie prestazioni, e alla fine sono rimaste deluse. Secondo diversi studi condotti dalla società di consulenza, due terzi delle aziende non vedono risultati dopo aver investito nell’intelligenza artificiale generativa.
L’intelligenza artificiale generativa nel mondo degli affari, istruzioni per l’uso
“Le aziende non erano pronte, hanno sottovalutato il lavoro di preparazione”, afferma Sylvain Duranton. Per sfruttare veramente la tecnologia devi cambiare il tuo modo di lavorare, non è magia. Dobbiamo rivedere completamente alcuni processi e ripulire i dati aziendali”giudica. Le poche aziende che hanno compiuto questo sforzo riescono a trarne profitto, in parte nei servizi di vendita, marketing e gestione della catena di fornitura. [voir plus bas, Ndlr]. Alcuni guadagnerebbero addirittura “decine di milioni di euro di margine”, secondo BCG X.
Un futuro collega virtuale
Emilie Sidiqian, direttore generale di Salesforce Francia (leggi l’intervista a pagina V) conferma anche questo periodo di disincanto nel mondo professionale. Per lei, gli attuali chatbot sono “deludenti” perché per lo più si limitano a scrivere e-mail e a riferire sulle riunioni. Al contrario, il «agenti» prometti di diventare un collega quasi virtuale in grado di rispondere a un cliente, guidarlo, fissare obiettivi e implementarli. Ma Sylvain Duranton avverte: lo schieramento degli “agenti” non avverrà senza scontri. “Solo perché la tecnologia migliora non significa che le aziende saranno più pronte”, avvisa.
Per alcuni osservatori i limiti non sono solo organizzativi, ma anche tecnologici e ambientali. “Sta diventando complicato far avanzare i modelli linguistici senza spingere i limiti del nostro consumo energetico”, sottolinea Edouard Grave. Il ricercatore cita anche un altro soffitto di cristallo: quello dei dati accessibili. Se ChatGPT e i suoi amici riescono così bene in certi compiti, è perché sono stati in grado di assorbire tutti i dati testuali dal web. Ma questo non basta per andare oltre, in particolare verso una conoscenza più fine e qualificata. “Avere dati di alta qualità è un processo lungo e costoso perché richiede annotazioni umane, osserva Edouard Grave. Per creare un esperto di intelligenza artificiale in matematica, ad esempio, “gli accademici dovrebbero essere chiamati a creare un gran numero di problemi e soluzioni da sottoporre ai modelli”, specifica.
Inoltre, i modelli linguistici mancano del contatto con il mondo esterno per diventare veramente autonomi. “I loro limiti sono i loro errori, le loro assurdità, in breve la loro mancanza di allineamento con il mondo fisico,” stima Pierre-Yves Oudeyer, direttore della ricerca presso l’Inria. Secondo lui, una delle chiavi è ancorarli a un ambiente esterno. Collegandoli a un computer come ha fatto Anthropic, ma anche al mondo fisico tramite un robot. Nel suo laboratorio, il ricercatore e i suoi colleghi cercano addirittura di instillare una forma di curiosità nelle macchine. “L’idea è che l’intelligenza artificiale si fissi obiettivi interessanti”una motivazione intrinseca che li spingerebbe ad interessarsi al loro ambiente.
Per fare questo, il suo team è interessato al funzionamento del cervello umano. “La ricerca dimostra che impariamo meglio quando un argomento inizia in modo complesso ma alla fine progredisce. Se l’argomento è troppo facile o troppo difficile, perdiamo interesse. » Questo meccanismo applicato alle macchine potrebbe consentire loro di diventare più autonome.
“L’utilizzo dell’intelligenza artificiale è una questione di vita o di morte per un’azienda” (Emilie Sidiqian, direttrice francese di Salesforce)
Gli “agenti” capaci di ragionare prefigurano l’avvento più incerto delle superintelligenze, o addirittura dell’“intelligenza generale artificiale”. Questi concetti, lungi dall’essere unanimi nel mondo scientifico ma favoriti dalle imprese, designano le IA che superano gli esseri umani in tutte le loro capacità. Prima di raggiungere questo obiettivo, Edouard Grave ritiene che dovranno essere sbloccati molti ostacoli tecnologici. Come altri, il ricercatore dubita che l’intelligenza artificiale generativa sia sufficiente per creare una superintelligenza. “Ma è impossibile prevedere qualsiasi cosa con certezza, avverte. Se due anni fa fossi stato avvertito dei progressi compiuti dai modelli linguistici e della corsa alla potenza di calcolo che ne è derivata, avrei fatto fatica a crederci.
Questo Graal si scontra anche con un limite che l’intelligenza artificiale sta già affrontando: i limiti planetari. (vedi pagina VI). La questione è anche sapere se questo è davvero il progetto sociale che vogliamo. Fino a che punto siamo pronti a delegare il nostro lavoro, anche la nostra vita quotidiana, a questi agenti?