Il chip Nvidia H100 AI da $ 40.000 è diventato l’hardware più ambito al mondo e avvicina Nvidia a $ 1 trilione di capitalizzazione di mercato

-
Tutto fa pensare che Nvidia sia l’azienda che attualmente sta beneficiando maggiormente della frenetica corsa all’IA innescata dal clamoroso successo di ChatGPT. I rapporti indicano che le aziende e le startup di intelligenza artificiale in tutto il mondo si stanno riversando sull’acceleratore GPU H100 lanciato da Nvidia lo scorso anno, poiché questo processore è diventato un hardware di riferimento nello sviluppo di modelli di intelligenza artificiale generativa. Si dice che l’acceleratore GPU H100, che può costare fino a $ 40.000, abbia portato enormi profitti a Nvidia nel secondo trimestre del 2023, con entrate dell’azienda in quel periodo valutate a oltre $ 11 miliardi di dollari.

Nvidia ha lanciato il suo chip AI H100 nel marzo dello scorso anno. Il produttore di apparecchiature americano ha descritto questo acceleratore GPU come uno dei chip più potenti che abbia mai costruito, nonché uno dei più costosi, con un costo di circa $ 40.000 ciascuno. Il lancio è sembrato sbagliato, poiché l’annuncio è arrivato in un momento in cui le aziende stavano cercando di tagliare le spese a causa dell’incertezza economica e dell’inflazione galoppante. Quindi, a novembre, è stato lanciato ChatGPT. Il chatbot AI di OpenAI è stato adottato da oltre 100 milioni di utenti in un solo mese, portando la corsa AI al livello successivo.

Tuttavia, per sviluppare potenti modelli di intelligenza artificiale, è necessaria una notevole potenza di calcolo che oggi pochissimi materiali sono in grado di offrire. Ed è qui che entra in gioco Nvidia. Le grandi aziende tecnologiche e le startup si sono affrettate a ottenere l’acceleratore GPU H100 di Nvidia. Siamo passati da un anno difficile l’anno scorso a un’inversione di tendenza dall’oggi al domani. Il chatbot AI di successo di OpenAI è stato un momento di svolta. Ha creato una domanda immediata”, ha affermato Jensen Huang, CEO di Nvidia. Questa richiesta sembra aver fatto esplodere tutte le figure del fornitore.

In effetti, questa settimana è diventato chiaro l’interesse di avere il prodotto giusto al momento giusto. Nvidia ha annunciato mercoledì che le sue entrate per i tre mesi che terminano a luglio saliranno a $ 11 miliardi (oltre il 50% in più rispetto alle precedenti stime di Wall Street) grazie alla ripresa della spesa da parte di Big Tech nei data center e alla domanda per i suoi chip AI. L’annuncio ha aumentato la capitalizzazione di mercato di Nvidia di $ 184 miliardi in un solo giorno giovedì, spingendo Nvidia, che era già la società di chip più preziosa al mondo, vicino a una valutazione di $ 1 trilione.

Il chip H100 si sta rivelando particolarmente popolare tra le Big Tech, che stanno costruendo interi data center incentrati sui carichi di lavoro IA, e le startup IA come Stability AI, OpenAI, Anthropic e Inflection AI, in quanto promette prestazioni più elevate che possono accelerare il lancio di prodotti o ridurre i costi di formazione nel tempo. Microsoft e Google, che sviluppano motori di ricerca basati sull’IA generativa, sono tra i maggiori clienti dei chip H100 di Nvidia. I produttori di server affermano di aver aspettato più di sei mesi per ricevere i loro ultimi ordini.

I venture capitalist acquistano chip H100 per le startup in cui investono. Elon Musk, che ha acquistato migliaia di chip Nvidia per la sua nuova startup AI X.ai, ha dichiarato a un evento di questa settimana che in questo momento “le GPU sono molto più difficili da ottenere rispetto ai farmaci”. Il costo del calcolo è diventato astronomico. L’investimento minimo deve essere di $ 250 milioni in hardware del server [afin de construire des systmes d’IA gnrative] , Musk ha detto. Il miliardario però non ha specificato se si riferisca ai nuovi chip H100 o ai chip Nvidia in generale.

Inoltre, la costruzione del supercomputer Dojo di Tesla sarebbe stata influenzata negativamente da questa via ai chip di Nvidia. Dojo dovrebbe consentire a Tesla di rendere più autonoma la sua flotta di veicoli elettrici, ma le cose stanno rallentando. Secondo Musk, Project Dojo è nato solo perché Tesla non aveva abbastanza GPU di Nvidia. Francamente, se potessero fornirci abbastanza GPU, potremmo non aver bisogno di Dojo. Hanno così tanti clienti. Sono stati così gentili, tuttavia, da dare la priorità ad alcuni dei nostri ordini di GPU”, ha detto Musk a luglio.

Musk ha aggiunto: Se Tesla avesse potuto ricevere da Nvidia il numero di chip di cui aveva bisogno, sarebbero stati integrati in computer specializzati che avrebbero elaborato l’enorme quantità di dati video, necessari per ottenere una soluzione generalizzata al problema dell’autonomia. I dati devono essere elaborati in qualche modo. Dojo è quindi progettato per essere ottimizzato per la formazione video, e non per i sistemi di intelligenza artificiale generativa, per elaborare la quantità di dati necessari per i veicoli a guida autonoma, importante per ottenere una guida autonoma più sicura rispetto alla guida umana.

Tuttavia, le startup Big Tech e AI non sono le uniche a cercare di proteggere gli acceleratori GPU H100. Si dice che l’Arabia Saudita e gli Emirati Arabi Uniti abbiano acquistato migliaia di questi chip da $ 40.000 per creare le proprie applicazioni AI. Questa elevata richiesta di un singolo chip da parte di una singola azienda ha provocato una sorta di frenesia degli acquisti. “Chi ottiene quanto H100 e quando è l’argomento di discussione nella Silicon Valley”, ha detto Andrej Karpathy di OpenAI in un post su X (ex Twitter, ribattezzato X dopo l’acquisizione di Elon a novembre dello scorso anno).

Il chip H100 è il successore delle GPU A100 di Nvidia, che sono state la base dei moderni sforzi di sviluppo del modello LLM (Large Language Model). Si dice che il chip H100 sia fino a nove volte più veloce per l’addestramento AI e 30 volte più veloce per l’inferenza rispetto all’A100. “In termini di accesso, sì, è così che si presenta l’ascesa di una nuova architettura GPU”, ha affermato Ian Buck, capo del business di hyperscale e high-performance computing di Nvidia. Il chip H100 insolitamente grande è un acceleratore GPU progettato per l’uso nei data center e dispone di 80 miliardi di transistor.

Nonostante sia due volte più costoso del suo predecessore, l’A100 lanciato nel 2020, i primi utenti affermano che il chip H100 offre prestazioni almeno tre volte superiori. L’H100 risolve il problema di scalabilità che avevano i modellisti [d’IA]. “Questo è importante perché ci consente di addestrare modelli più grandi più rapidamente man mano che il problema si sposta dalla ricerca all’ingegneria”, ha affermato Emad Mostaque, co-fondatore e CEO di Stability AI, la società dietro il servizio di generazione di immagini Stable Diffusion. Secondo gli esperti, la domanda di chip H100 dovrebbe continuare a crescere.

Nvidia emerge quindi come uno dei primi grandi vincitori dell’ascesa dell’IA generativa, una tecnologia che minaccia di rimodellare le industrie, produrre enormi guadagni di produttività e soppiantare milioni di posti di lavoro. Inoltre, sembra che gli ordini per gli acceleratori di Nvidia siano già esauriti fino al 2024. E poiché il mercato degli acceleratori dovrebbe raggiungere i 150 miliardi di dollari entro il 2027, sembra che in futuro non ci sarà altro che green. Il chip H100 si basa su una nuova architettura chiamata “Hopper” (dal nome della pioniera americana della programmazione Grace Hopper).

E, naturalmente, questo boom è migliore per alcuni che per altri. Alcuni rapporti indicano che a causa dell’esplosione di interesse per i server AI rispetto alle installazioni HPC più tradizionali, i produttori di DDR5 hanno dovuto rivedere le loro previsioni per il grado di penetrazione nel mercato della nuova memoria. L’adozione di DDR5 dovrebbe ora raggiungere la parità con DDR4 solo nel terzo trimestre del 2024.

E lei ?

Qual è la tua opinione sull’argomento?
Cosa ne pensi della forte domanda di chip Nvidia H100?
Per quanto tempo pensi che continuerà questa tendenza?
Che impatto potrebbe avere questo su Nvidia e sull’industria dei chip in generale?

Vedi pure

Le nuove GPU NVIDIA per l’intelligenza artificiale sarebbero fino a 4,5 volte più veloci delle precedenti, secondo NVIDIA

Elon Musk avrebbe acquistato migliaia di GPU per un progetto di intelligenza artificiale generativa all’interno di Twitter, i critici suggeriscono che volesse una “pausa” per recuperare il ritardo su OpenAI

NVIDIA si sta rivolgendo al noleggio di supercomputer AI dal cloud per diffondere la sua nuova tecnologia e addebita al servizio $ 37.000 al mese per otto chip A100 o H100

-

NEXT Non perdere questa folle promozione sul famoso Google Pixel 8 Pro