Questa azienda cinese ha tutte le carte in regola per competere con ChatGPT

Questa azienda cinese ha tutte le carte in regola per competere con ChatGPT
Questa azienda cinese ha tutte le carte in regola per competere con ChatGPT
-

L’azienda cinese DeepSeek offre oggi una soluzione di apprendimento per l’intelligenza artificiale molto più economica rispetto al suo concorrente americano OpenAI.

Fonte: Frandroid

L’intelligenza artificiale è un argomento vasto, che copre diversi temi, che vanno dalle applicazioni pratiche agli aspetti teorici, compreso l’apprendimento dei dati da queste IA attraverso ciò che chiamiamo LLM (modelli linguistici). Oggi le aziende dietro molti sistemi di intelligenza artificiale stanno attraendo preoccupazioni per quanto riguarda i costi economici e ambientali che generano. DeepSeek offre una soluzione a questo problema, almeno dal punto di vista economico.

Più veloce ed economico

Progredendo e diventando sempre più efficiente, l’intelligenza artificiale aumenta i parametri dei suoi modelli linguistici rimanere rilevante e comprendere query sempre più complesse. Un miglioramento che ha un costo. Ad esempio, versione 3 di ChatGPTche conterebbe 175 miliardi di parametri secondo Il limitelo sviluppo è costato diverse centinaia di milioni di dollari. Anche OpenAI, la sua società madre, viene regolarmente scelta per le somme astronomiche che le consentono di rimanere a galla.

Secondo Jim Fan, ricercatore presso Nvidiaviene presa in considerazione DeepSeek, con sede a Hangzhou, Cina “il più grande outsider” del 2025 nel campo dei grandi LLM open Source, riferiscono i media cinesi Posta del mattino della Cina meridionale.

Rispetto a ChatGPT, DeepSeek V3che ha 671 miliardi di parametri, è stato addestrato in soli due mesi al costo di 5,58 milioni dollari americani.

Un modello Open Source

Da parte sua, oltre ad essere economico, DeepSeek si pone come modello fonte aperta che sembra dimostrarsi tra i professionisti. “DeepSeek V3 sembra essere un modello più potente, con solo 2,8 milioni di ore GPU”ha detto Andrej Karpathy, ex capo dell’intelligenza artificiale di Tesla e membro fondatore del team OpenAI, in un post su X (Twitter). Per confronto, Lama 3.1l’intelligenza artificiale del gruppo Meta, ha richiesto 30,8 milioni di ore di formazione GPU Posta del mattino della Cina meridionale.

“Seguo DeepSeek da molto tempo. L’anno scorso avevano uno dei migliori modelli di codifica aperta »dice Fan. Prosegue affermando che questi modelli open Source eserciteranno un’enorme pressione sul settore, portandolo a una rapida evoluzione.

Per i più curiosi, il modello DeepSeek è accessibile su Hugging Face ed è accompagnato dalla relativa documentazione su GitHub.


Unisciti a noi ogni due mercoledì su Twitch, dalle 17:00 alle 19:00, per seguire la diretta lo spettacolo SURVOLTÉS prodotto da Frandroid. Auto elettrica, bici elettrica, consigli di esperti, giochi o testimonianze, ce n’è per tutti i gusti!

-

PREV “Afous Afous”: Per celebrare Yennayer 2975
NEXT Apple accetta di pagare quasi 100 milioni di dollari per porre fine alle cause legali sulla privacy dei dati