Secondo documenti accademici e analisti, i principali istituti di ricerca cinesi collegati all’Esercito popolare di liberazione hanno utilizzato il modello Llama di Meta, disponibile al pubblico, per sviluppare uno strumento di intelligenza artificiale per potenziali applicazioni militari.
In un articolo di giugno esaminato da Reuters, sei ricercatori cinesi provenienti da tre istituzioni, di cui due sotto il principale braccio di ricerca dell’Esercito popolare di liberazione (PLA), l’Accademia delle scienze militari (AMS), spiegano come hanno utilizzato una prima versione del lama di Meta come arma da fuoco. base per quello che chiamano “ChatBIT”.
I ricercatori hanno utilizzato il Llama 2 13B Large Language Model (LLM) che Meta ha rilasciato nel febbraio 2023, incorporando i propri parametri per costruire uno strumento di intelligenza artificiale di livello militare per raccogliere ed elaborare informazioni e fornire informazioni accurate e affidabili per il processo decisionale operativo.
ChatBIT è stato perfezionato e “ottimizzato per il dialogo e le attività di risposta alle domande in ambito militare”, secondo il documento. Ha sovraperformato altri modelli di intelligenza artificiale le cui capacità erano circa il 90% del potente ChatGPT-4 di OpenAI. I ricercatori non hanno specificato come hanno definito le prestazioni o se il modello AI fosse stato messo in campo.
“Questa è la prima volta che ci sono prove sostanziali che gli esperti militari dell’EPL in Cina hanno sistematicamente cercato e tentato di sfruttare il potere degli LLM open Source, in particolare quelli di Meta, per scopi militari”, ha affermato Sunny Cheung, ricercatore associato presso il Jamestown Fondazione specializzata nelle tecnologie emergenti e a duplice uso della Cina, inclusa l’intelligenza artificiale.
Meta ha adottato la pubblicazione aperta di molti dei suoi modelli di intelligenza artificiale, incluso Llama. Impone restrizioni al loro utilizzo, inclusa la richiesta di servizi con più di 700 milioni di utenti per ottenere una licenza da esso.
I termini dell’accordo vietano inoltre l’uso dei modelli per “militari, guerre, industrie o applicazioni nucleari, spionaggio” e altre attività soggette ai controlli sulle esportazioni della difesa statunitense, nonché per lo sviluppo di armi e contenuti destinati a “incitare e incoraggiare violenza”.
Tuttavia, poiché i modelli di Meta sono pubblici, la società dispone di mezzi limitati per far rispettare tali disposizioni.
In risposta alle domande di Reuters, Meta ha citato la sua politica di utilizzo accettabile e ha affermato che sta adottando misure per prevenire gli abusi.
“Qualsiasi utilizzo dei nostri modelli da parte dell’Esercito popolare di liberazione è non autorizzato e contrario alla nostra politica di utilizzo accettabile”, ha detto Molly Montgomery, direttrice delle politiche pubbliche di Meta, in un’intervista telefonica a Reuters.
I ricercatori cinesi includono Geng Guotong e Li Weiwei del Centro di ricerca sull’informazione scientifica militare dell’AMS e dell’Istituto nazionale per l’innovazione della tecnologia di difesa, nonché ricercatori dell’Istituto di tecnologia di Pechino e dell’Università di Minzu.
“In futuro, con il progresso tecnologico, ChatBIT non sarà applicato solo all’analisi dell’intelligence, ma anche alla pianificazione strategica, all’addestramento alla simulazione e al processo decisionale di comando”, si legge nel documento.
Il ministero della Difesa cinese non ha risposto a una richiesta di commento, né lo hanno fatto istituzioni o ricercatori.
Reuters non ha potuto confermare le capacità e la potenza di calcolo di ChatBIT, sebbene i ricercatori abbiano notato che il suo modello incorporava solo 100.000 registrazioni di dialoghi militari, un numero relativamente piccolo rispetto ad altri LLM.
“È una goccia nell’oceano rispetto alla maggior parte di questi modelli (che) vengono addestrati con trilioni di token… Mi chiedo cosa realizzino effettivamente in termini di diverse capacità”, ha affermato Joelle Pineau, vicepresidente della ricerca sull’intelligenza artificiale presso Meta e professore di informatica alla McGill University in Canada.
La ricerca arriva nel mezzo di un acceso dibattito all’interno delle comunità tecnologiche e di sicurezza nazionale degli Stati Uniti sull’opportunità che aziende come Meta debbano rendere i loro modelli disponibili al pubblico.
Nell’ottobre 2023, il presidente degli Stati Uniti Joe Biden ha firmato un ordine esecutivo per regolamentare gli sviluppi dell’intelligenza artificiale, sottolineando che, sebbene l’innovazione possa portare vantaggi sostanziali, esistono anche rischi significativi per la sicurezza, come la rimozione delle misure di protezione all’interno del modello.
Questa settimana, Washington ha dichiarato che sta finalizzando le regole volte a frenare gli investimenti statunitensi nell’intelligenza artificiale e in altri settori tecnologici in Cina che potrebbero minacciare la sicurezza nazionale.
Il portavoce del Pentagono John Supple ha affermato che il Dipartimento della Difesa riconosce che i modelli open Source presentano sia vantaggi che svantaggi e che “continueremo a monitorare e valutare da vicino le capacità dei concorrenti”.
BISCOTTO IN VASO
Alcuni osservatori ritengono che i progressi della Cina nello sviluppo dell’intelligenza artificiale autoctona, compresa la creazione di dozzine di laboratori di ricerca, abbiano già impedito al paese di ridurre il divario tecnologico tra esso e gli Stati Uniti.
In un altro articolo accademico esaminato da Reuters, due ricercatori dell’Aviation Industry Corporation of China (AVIC) – che gli Stati Uniti hanno indicato come società con legami con il PLA – descrivono l’uso di Llama 2 per “l’addestramento nell’interferenza della guerra elettronica aerea”. strategie.
L’uso da parte della Cina dell’intelligenza artificiale sviluppata in Occidente si è esteso anche alla sicurezza interna. Un articolo pubblicato a giugno descrive l’uso di Llama per l'”intelligence della polizia” per elaborare grandi quantità di dati e migliorare il processo decisionale della polizia.
Ad aprile, il quotidiano statale PLA Daily ha pubblicato un commento su come l’intelligenza artificiale potrebbe aiutare ad “accelerare la ricerca e lo sviluppo di armi ed equipaggiamenti”, sviluppare simulazioni di combattimento e migliorare l’efficacia dell’addestramento militare.
“Puoi impedire loro (la Cina) di entrare nel barattolo dei biscotti? No, non vedo come potresti farlo”, ha detto a Reuters William Hannas, analista senior del Center for Security and Emerging Technology (CSET). dalla Georgetown University. In un documento pubblicato nel 2023, il CSET ha identificato 370 istituzioni cinesi i cui ricercatori hanno pubblicato articoli sull’intelligenza artificiale generale, contribuendo alla strategia nazionale cinese per guidare il mondo nell’intelligenza artificiale entro il 2030.
“C’è troppa collaborazione tra i migliori scienziati cinesi e i migliori scienziati americani nel campo dell’intelligenza artificiale perché possano essere esclusi dagli sviluppi”, ha aggiunto Hannas.