DayFR Italian

L’ascesa esponenziale dell’IA messa in discussione

-

(San Francisco) I modelli di intelligenza artificiale generativa (AI) sono a un vicolo cieco? Dal lancio di ChatGPT due anni fa, il progresso esponenziale della tecnologia ci ha fatto sperare nell’avvento di macchine con un’intelligenza quasi umana. Ma i dubbi si accumulano.


Inserito alle 18:31

Glenn CHAPMAN, Julie JAMMOT

Agenzia -Presse

I leader del settore promettono miglioramenti delle prestazioni così significativi e rapidi che “l’intelligenza generale artificiale”, nelle parole del capo di OpenAI (ChatGPT), Sam Altman, dovrebbe presto emergere.

Basano questa convinzione sulle leggi dello scale-up: basterebbe fornire ai modelli sempre più dati e potenza di calcolo dei computer perché guadagnino in capacità.

Questa strategia ha funzionato così bene finora che molti nel settore temevano che si sarebbe mossa troppo velocemente e che l’umanità si sarebbe ritrovata sopraffatta.

Microsoft (il principale investitore di OpenAI), Google, Amazon, Meta e altri hanno speso miliardi di dollari e lanciato strumenti che producono facilmente testi, immagini e video di qualità sorprendente, e che ora sono anche sulla bocca di tutti.

xAI, la società di intelligenza artificiale di Elon Musk, sta raccogliendo 6 miliardi di dollari, secondo la CNBC, per acquistare 100.000 chip Nvidia, i componenti elettronici all’avanguardia che alimentano i modelli di grandi dimensioni.

OpenAI ha concluso all’inizio di ottobre un’importante raccolta fondi di 6,6 miliardi di dollari, per una valutazione di 157 miliardi di dollari.

“Le valutazioni elevate si basano in gran parte sull’idea che i modelli linguistici, attraverso la continua espansione, diventeranno delle IA generali”, ha affermato Gary Marcus, un esperto del settore spesso critico. “Come ho sempre detto, è solo una fantasia. »

Limiti

La stampa americana ha recentemente riferito che i nuovi modelli in sviluppo sembrano aver raggiunto un punto di stallo, in particolare presso Google, Anthropic (Claude) e OpenAI.

“Stiamo aumentando [la puissance de calcul] allo stesso ritmo, ma non stiamo ottenendo miglioramenti intelligenti”, ha recentemente affermato Ben Horowitz, co-fondatore di a16z, una società di venture capital azionista di OpenAI e investitore in società concorrenti, tra cui Mistral.

Orion, l’ultima aggiunta di OpenAI, non ancora pubblica, supera i suoi predecessori. Ma “l’aumento di qualità è stato molto inferiore rispetto al salto tra GPT-3 e GPT-4”, gli ultimi due modelli di punta dell’azienda, secondo fonti citate da The Information.

Diversi esperti intervistati dall’AFP ritengono che le leggi della scala abbiano raggiunto i loro limiti.

“Alcuni laboratori si sono concentrati troppo sull’aggiunta di testo, pensando che la macchina sarebbe diventata sempre più intelligente”, sottolinea Scott Stevenson, capo di Spellbook, azienda specializzata in IA generativa legale.

Grazie alla formazione basata su montagne di dati raccolti online, i modelli riescono a prevedere, in maniera molto convincente, sequenze di parole o disposizioni di pixel. Ma le aziende stanno iniziando a rimanere a corto di nuovi materiali per alimentarle.

E non è solo una questione di conoscenza: per progredire sarebbe necessario soprattutto che le macchine riuscissero in qualche modo a comprendere il significato delle loro frasi o immagini.

IA “bambino”.

I padroni del settore contestano l’idea di un rallentamento.

“Se guardiamo al ritmo con cui le capacità stanno aumentando, potremmo pensare che ci arriveremo [à l’IA générale] entro il 2026 o il 2027”, ha assicurato Dario Amodei, il capo di Anthropic, nel podcast dell’informatico Lex Fridman.

“Non esiste un vicolo cieco”, ha scritto giovedì Sam Altman su X. OpenAI ha tuttavia ritardato il rilascio del successore di GPT-4.

E, a settembre, la giovane stella della Silicon Valley ha cambiato strategia presentando o1, un modello che dovrebbe rispondere a domande più complesse, soprattutto matematiche, grazie a una formazione che punta meno sull’accumulo di dati e più sul rafforzamento delle proprie capacità ragionare.

Secondo Scott Stevenson, o1 “passa più tempo a pensare che a reagire”, portando a “miglioramenti radicali”.

Paragona l’evoluzione della tecnologia alla scoperta del fuoco: invece di aggiungere carburante sotto forma di dati e potenza di calcolo, è tempo di sviluppare l’equivalente di una lanterna o di un motore a vapore. Come gli agenti IA a cui gli esseri umani potranno delegare compiti online.

“Il bambino AI era a chatbot che ha fatto molta improvvisazione” e quindi molti errori, aggiunge Walter De Brouwer, professore alla Stanford University. “L’approccio dell’homo sapiens di pensare prima di saltare sta accadendo. »

Related News :