L'ascesa fulminea dell'intelligenza artificiale messa in discussione: notizie

L'ascesa fulminea dell'intelligenza artificiale messa in discussione: notizie
L'ascesa fulminea dell'intelligenza artificiale messa in discussione: notizie
-

I modelli di intelligenza artificiale generativa (AI) sono a un punto morto? Dal lancio di ChatGPT due anni fa, il progresso esponenziale della tecnologia ci ha fatto sperare nell’avvento di macchine con un’intelligenza quasi umana. Ma i dubbi si accumulano.

I leader del settore promettono miglioramenti delle prestazioni così significativi e rapidi che “l’intelligenza generale artificiale”, nelle parole del capo di OpenAI (ChatGPT), Sam Altman, dovrebbe presto emergere.

Basano questa convinzione sulle leggi dello scale-up: basterebbe fornire ai modelli sempre più dati e potenza di calcolo dei computer perché guadagnino in capacità.

Questa strategia ha funzionato così bene finora che molti nel settore temevano che si sarebbe mossa troppo velocemente e che l’umanità si sarebbe ritrovata sopraffatta.

Microsoft (il principale investitore di OpenAI), Google, Amazon, Meta e altri hanno speso miliardi di dollari e lanciato strumenti che producono facilmente testi, immagini e video di straordinaria qualità, e ora sono anche oggetto di discussione in città.

xAI, la società di intelligenza artificiale di Elon Musk, sta raccogliendo 6 miliardi di dollari, secondo la CNBC, per acquistare 100.000 chip Nvidia, i componenti elettronici all'avanguardia che alimentano i modelli di grandi dimensioni.

OpenAI ha concluso all'inizio di ottobre un'importante raccolta fondi di 6,6 miliardi di dollari, per una valutazione di 157 miliardi di dollari.

“Le valutazioni elevate si basano in gran parte sull’idea che i modelli linguistici, attraverso la continua espansione, diventeranno delle IA generali”, ha affermato Gary Marcus, un esperto del settore spesso critico. “Come ho sempre detto, è solo una fantasia.”

– Limiti –

La stampa americana ha recentemente riferito che i nuovi modelli in sviluppo sembrano aver raggiunto un punto di stallo, in particolare presso Google, Anthropic (Claude) e OpenAI.

“Stiamo aumentando (la potenza di calcolo) allo stesso ritmo, ma non stiamo ottenendo miglioramenti intelligenti”, Ben Horowitz, co-fondatore di a16z, una società di venture capital azionista di OpenAI e investitrice in aziende , hanno affermato recentemente i concorrenti, tra cui Mistral.

Orion, l'ultima aggiunta di OpenAI, non ancora pubblica, supera i suoi predecessori. Ma “l'aumento di qualità è stato molto inferiore rispetto al salto tra GPT-3 e GPT-4”, gli ultimi due modelli di punta dell'azienda, secondo fonti citate da The Information.

Diversi esperti intervistati dall’AFP ritengono che le leggi della scala abbiano raggiunto i loro limiti.

“Alcuni laboratori si sono concentrati troppo sull’aggiunta di testo, pensando che la macchina sarebbe diventata sempre più intelligente”, sottolinea Scott Stevenson, capo di Spellbook, azienda specializzata in IA generativa legale.

Grazie alla formazione basata su montagne di dati raccolti online, i modelli riescono a prevedere, in maniera molto convincente, sequenze di parole o disposizioni di pixel. Ma le aziende stanno iniziando a rimanere a corto di nuovi materiali per alimentarle.

E non è solo una questione di conoscenza: per progredire sarebbe necessario soprattutto che le macchine riuscissero in qualche modo a comprendere il significato delle loro frasi o immagini.

– IA “Baby” –

I padroni del settore contestano l’idea di un rallentamento.

“Se guardiamo al ritmo con cui aumentano le capacità, possiamo pensare che arriveremo (all’intelligenza artificiale generale) entro il 2026 o il 2027”, ha assicurato Dario Amodei, il capo di Anthropic, al podcast dell’informatico Lex Friedman.

“Non esiste un vicolo cieco”, ha scritto giovedì Sam Altman su X. OpenAI ha tuttavia ritardato il rilascio del successore di GPT-4.

E a settembre la start-up stella della Silicon Valley ha cambiato strategia presentando o1, un modello che dovrebbe rispondere a domande più complesse, soprattutto matematiche, grazie a una formazione che punta meno sull'accumulo di dati e più sul rafforzamento la propria capacità di ragionare.

Secondo Scott Stevenson, o1 “passa più tempo a pensare che a reagire”, portando a “miglioramenti radicali”.

Paragona l'evoluzione della tecnologia alla scoperta del fuoco: invece di aggiungere carburante sotto forma di dati e potenza di calcolo, è tempo di sviluppare l'equivalente di una lanterna o di un motore a vapore. Come gli agenti IA a cui gli esseri umani potranno delegare compiti online.

“Il bambino dell’intelligenza artificiale era un chatbot che faceva molta improvvisazione” e quindi molti errori, aggiunge Walter De Brouwer, professore alla Stanford University. “L’approccio dell’homo sapiens di pensare prima di saltare è qui.”

-

PREV Una specie estinta (e misteriosa) ha lasciato la sua impronta genetica sugli esseri umani
NEXT Dominio W, bollicine anche per le imprese