Per comprendere l’interesse di questo nuovo progetto ricordiamo che si tratta di un’architettura denominata “ Grazia Blackwell », incorporando fino a 20 core CPU basati sull’architettura ARM e una GPU interna all’avanguardia dotata di core Tensor di quinta generazione. Cioè, il sistema supporta modelli di intelligenza artificiale di grandi dimensioni, potenzialmente fino a 200 miliardi di parametri su una singola unità. Si tratta di un passo da gigante per coloro che desiderano sviluppare o adattare modelli linguistici di tipo LLM (Large Language Model) senza dover affittare server farm.
Il risultato? Una scatola che ricorda un mini-computer, collegabile comunque a una presa standard, senza richiedere un mostruoso sistema di raffreddamento. Durante le sue presentazioni ufficiali, NVIDIA ha insistito sul fatto che con questa configurazione è possibile ottenere fino a 1 petaflop di potenza. Ciò non impedisce alla piattaforma di aggiornarsi per calcoli più impegnativi, offrendo così un’ampia gamma di casi d’uso.
Se NVIDIA padroneggia già il campo delle GPU e del calcolo accelerato, MediaTek porta qui il suo know-how nella progettazione di chip ARM a consumo energetico ridotto. Parliamo di 20 core ARM per la parte CPU, tutti collegati al chip grafico tramite un’interfaccia ad altissima velocità. Risultato: latenza di comunicazione notevolmente ridotta e consumi controllati su un singolo SoC (Sistema su chip). Questo approccio unificato promuove la coerenza della memoria ed evita di dover moltiplicare i moduli di archiviazione, poiché ogni workstation può trasportare fino a 128 GB di memoria e diversi terabyte di spazio di archiviazione NVMe.
Related News :