Perché la bolla dell’intelligenza artificiale non dovrebbe scoppiare… nonostante le legittime preoccupazioni

Perché la bolla dell’intelligenza artificiale non dovrebbe scoppiare… nonostante le legittime preoccupazioni
Perché la bolla dell’intelligenza artificiale non dovrebbe scoppiare… nonostante le legittime preoccupazioni
-

Dov’è l’intelligenza artificiale, in particolare quella generativa, dal punto di vista economico e finanziario? Il calo dei valori di borsa della scorsa estate ha sollevato la questione. Se alcuni modelli economici sono più fragili di quanto pensassimo, i fondamentali rimangono solidi. Lo sviluppo potrebbe essere rallentato. Non fermato.


La pausa estiva è stata movimentata sui mercati finanziari, e più in particolare per i titoli legati all’intelligenza artificiale (AI), che hanno registrato un movimento correttivo di portata senza precedenti. I “magnifici cinque” (Nvidia, Microsoft, Amazon, Alphabet, Apple) hanno così ceduto tra il 15% e il 19% del loro valore. Una volta che la febbre estiva si sarà calmata, quali lezioni possiamo imparare da essa? Abbiamo assistito a una semplice correzione tecnica momentanea – come suggerito dal rialzo del Nasdaq negli ultimi mesi – o all’inizio di uno sgonfiamento della bolla dell’IA?

200 miliardi di dollari

La battaglia per l’intelligenza artificiale si gioca innanzitutto nei mercati finanziari. La corsa agli armamenti per costruire un portafoglio di asset strategici, modelli fondamentali, infrastrutture informatiche e di storage, e ora anche centrali nucleari per alimentare i data center, richiede investimenti colossali. Quest’anno, solo GAFAM avrà investito più di 200 miliardi di dollari nell’intelligenza artificiale, e già circolano voci di un potenziale investimento di Nvidia in xAI che valorizzerebbe l’azienda di Elon Musk specializzata in intelligenza artificiale. Si tratta di un’accelerazione di oltre il 45% rispetto al 2023, che era già un anno record.


Per saperne di più: Kai-Fu Lee, grande organizzatore dell’intelligenza artificiale open Source in Cina… e ispirazione per la Francia?


Tuttavia, questi massicci investimenti si inseriscono in un contesto macroeconomico caratterizzato da incertezze (tensioni geopolitiche, pressione sulle risorse, rallentamento della crescita globale, ecc.) che possono incoraggiare gli investitori a realizzare plusvalenze riducendo il debito tecnologico in essere da un lato sono saliti alle stelle, dall’altro si sono spostati verso valori meno volatili, più leggibili e, in ultima analisi, meno rischiosi. Ma, più che il contesto macroeconomico, è la questione dell’esistenza stessa di una bolla attorno all’intelligenza artificiale che deve essere posta. Perché, con il passare del tempo e l’arrivo dei primi feedback, stanno emergendo le prime preoccupazioni sul reale potenziale di mercato delle soluzioni AI, in particolare nel campo dell’IA generativa.

Incrementi di produttività deludenti

Primo motivo di preoccupazione: il promesso aumento della produttività, pericolosamente in ritardo. Nel 2023, Goldman Sachs prevedeva un aumento della produttività del 9,2% e un contributo di 6,1 punti alla crescita americana per il prossimo decennio! Tuttavia, queste previsioni sono state recentemente messe in discussione da Daron Acemoglu, l’economista del MIT specializzato in innovazione, il cui ultimo lavoro di modellazione mostra potenziali guadagni di produttività dello 0,56% e un contributo con una crescita limitata a 1 punto. Una vera doccia fredda.

Contrariamente alle promesse commerciali dei promotori dell’IA, l’accademico stima che, per il prossimo decennio, solo il 19,9% delle attività aziendali sarà esposto all’IA, di cui solo il 4,6% potrà essere automatizzato con profitto. E se è del tutto possibile opporsi a Daron Acemoglu le incertezze sui futuri sviluppi tecnici dell’IA o la mancata presa in considerazione degli effetti di rimbalzo derivanti dalla riallocazione delle risorse produttive liberate dall’automazione consentita dall’IA, per il momento, l’indubbia dimostrazione Si attende ancora un aumento della produttività delle imprese, al di fuori di compiti ben definiti.

Tuttavia, senza questa dimostrazione, è difficile per un’azienda, soprattutto nel contesto macroeconomico delineato a monte, aderire alle offerte dei promotori dell’IA. Di fronte agli investimenti colossali potrebbe sorgere rapidamente la questione della solidità economica e della robustezza dei modelli di business dei promotori dell’IA. Ma se per GAFAM, dotata di risorse diversificate e abbondanti, la scommessa dovesse rimanere generalmente fattibile, per le start-up o le aziende specializzate, il futuro potrebbe oscurarsi in tempi relativamente brevi se il ritmo degli investimenti dovesse rallentare. Almeno questo è quello che sembra pensare il CEO di Baidu quando profetizza che il 99% delle aziende di intelligenza artificiale sono destinate a scomparire.

Verso il collasso dei modelli?

Secondo motivo di preoccupazione: il collasso dei modelli di intelligenza artificiale e, più in particolare, dei grandi modelli linguistici su cui si basa l’intelligenza artificiale generativa. Diversi studi recenti stimano che l’intelligenza artificiale stia raggiungendo un punto di flesso oltre il quale sarà difficile progredire. Il motivo? Gli strumenti esistenti avrebbero finito di estrarre tutto il succo dai dati esistenti, la cui produzione annuale è anch’essa limitata!

L’intelligenza artificiale generativa, infatti, ha bisogno di nuovi dati per progredire. Inizia un dibattito tra esperti. Per alcuni ricercatori, le IA potrebbero creare esse stesse i cosiddetti dati “sintetici” mediante la combinazione originale di vecchi dati e utilizzerebbero questi dati sintetici come nuovi input per continuare la loro formazione. Un simile approccio è vertiginoso, ma solido per i suoi sostenitori. D’altro canto, i ricercatori criticano questa metodologia che renderà i risultati dell’IA ancora meno controllabili, perché si basa su un pool di dati a volte di scarsa qualità, ricombinati senza intervento umano, per risultati a volte molto lontani da quelli previsto. Per dirla in altro modo, le IA ingerirebbero un veleno da loro stesse creato. Il dibattito non è ancora chiuso, ma si vede fino a che punto esso possa definire un limite all’idea di una crescita irresistibile dell’IA generativa.

Un problema energetico

Soprattutto che sia generativo o meno, si presenta un altro limite alla crescita esponenziale dell’intelligenza artificiale: il limite energetico e materiale. Ne abbiamo parlato a monte: di fronte all’esplosione dei costi energetici imputabili alla formazione dell’IA, alcune grandi aziende tecnologiche stanno investendo in unità di produzione di energia nucleare! Questa osservazione si scontra con l’immagine di Epinal di un mondo digitale disincarnato, tra le nuvole, immateriale.

La tecnologia digitale si basa su infrastrutture molto fisiche (reti, data center, terminali) che consumano energia, metalli e persino acqua (0,5 litri per 50 richieste GPT-3 secondo questo studio)! E mentre l’impatto ambientale dei nostri usi digitali, e in particolare dell’intelligenza artificiale, è sempre più messo in discussione, è discutibile anche la capacità dei fornitori di tenere il passo, sia in termini di volumi che di potenza.

Lo spettro degli ostacoli normativi

Il terzo motivo di preoccupazione deriva da un contesto in cui, su entrambe le sponde dell’Atlantico, le autorità competenti in materia di concorrenza e regolamentazione alzano la voce contro i giganti digitali. Si porrà quindi in modo acuto la questione della capacità delle aziende di conformarsi alla DSA, al GDPR e presto all’IA Act. Ad esempio, alle aziende che si occupano di intelligenza artificiale viene chiesto di adottare un approccio etico fin dalla progettazione e di illuminare le autorità su come gli algoritmi vengono progettati, addestrati e funzionano nella pratica.

Se l’obiettivo è indubbiamente lodevole, è irrealistico in un momento in cui lo stesso Sam Altman, il capo di Open AI (all’origine di ChatGPT) ammette di non sapere esattamente come ChatGPT trasforma i dati grezzi in nuove informazioni. Questo problema si aggiunge a quelli già individuati di potenziale violazione del diritto d’autore o di disinformazione che potrebbero dar luogo a procedimenti per diffamazione. Pertanto, dal punto di vista degli investitori, il rischio giuridico che circonda gli specialisti dell’IA può apparire elevato se si presuppone che le autorità applichino i testi così come sono scritti oggi.

Questo rischio giuridico è rafforzato mentre le autorità garanti della concorrenza sono già preoccupate per la concentrazione del potere di mercato nelle mani di un numero ristretto di attori già ben identificati che, a causa delle loro acquisizioni (attraverso operazioni di crescita esterna o investimenti azionari totali, come qui con Alphabet) di alcuni anelli chiave della catena del valore, e la loro integrazione verticale già ben avanzata (come qui con Microsoft), sembrano già del tutto incontrovertibili. Tuttavia, se tali rischi legali non dovessero rallentare i tentativi di espansione dei leader dell’IA, la consapevolezza delle posizioni competitive già consolidate di questi attori nei nodi di valore dell’IA potrebbe distogliere gli investitori dalle piccole imprese e da altri sfidanti dell’IA, considerati meno interessanti in il medio termine.

Minacce per qualificarsi

Questi diversi motivi di preoccupazione supportano lo scenario di un calo degli investimenti nell’intelligenza artificiale. Ciò premesso, è opportuno precisare le conseguenze di una tale minaccia.

Innanzitutto il nostro scenario riguarda essenzialmente le aziende impegnate nella corsa al gigantismo (o hyperscalling come si dice oltre Atlantico) e ai modelli proprietari. Tuttavia, da un lato, le iniziative open Source si stanno moltiplicando, conquistando quote di mercato e, così facendo, erodendo il potenziale di redditività dei grandi modelli proprietari. D’altronde nulla impedisce di pensare che per alcuni mercati applicativi il futuro non sia nei “più grandi”, ma in modelli più specializzati, più frugali e, in definitiva, meno voraci in termini di dati ed energia. Potrebbe esserci un “secondo mercato” con un alto potenziale per queste soluzioni.

Boursorama, novembre 2024.

Va poi notato che se l’intelligenza artificiale generativa, fino ad oggi punta di diamante del settore, potrebbe mostrare qualche segno di cedimento, non è così per i titoli specializzati in ambiti applicativi ad alto potenziale: sanità, cybersecurity, autonomia guida, industria 4.0… Un altro vantaggio: le aziende di questi settori avranno forse meno difficoltà a giustificare la propria impronta ambientale rispetto alle soluzioni pratiche che forniranno.

Infine, la bolla finanziaria attorno all’intelligenza artificiale potrebbe sgonfiarsi, ma uno scoppio sembra altamente improbabile. Individualmente, gli investitori potrebbero avere un interesse temporaneo a ridurre il peso dell’intelligenza artificiale nel proprio portafoglio per ottenere plusvalenze e superare l’attuale fase di contrazione economica. Ma sanno anche che i settori che offrono prospettive simili su un orizzonte di 10-20 anni non sono così numerosi. Lo stesso vale collettivamente. L’intelligenza artificiale è un castello di carte che potrebbe raggiungere un valore di 1.000 miliardi di dollari nel 2027. Una tale cifra unisce tutti gli investitori in una “comunità di destino”, in particolare i più grandi che agiscono come “price maker”. E nessuno ha interesse a far crollare un simile castello senza compromettere le proprie speranze di guadagno. Nonostante le nuvole estive, nulla annuncia un nuovo inverno AI, anzi.

-

PREV continua l’escalation dei prezzi mondiali, i produttori africani sono all’erta
NEXT Alla Migros di Delémont il resoconto dei volontari delle scatole del cuore