Gli Stati Uniti intendono limitare l’accesso della Cina al software di intelligenza artificiale dietro applicazioni come ChatGPT Una mossa per limitare l’esportazione di modelli di intelligenza artificiale proprietari o closed-source

-

L’amministrazione Biden è pronta ad aprire un nuovo fronte nei suoi sforzi per proteggere l’intelligenza artificiale degli Stati Uniti da Cina e Russia, con piani preliminari per posizionare guardrail attorno ai modelli di intelligenza artificiale più avanzati, il software principale per i sistemi di intelligenza artificiale come ChatGPT, hanno detto fonti.

ChatGPT è un chatbot sviluppato da OpenAI e lanciato il 30 novembre 2022. Basato su Large Language Models (LLM), consente agli utenti di perfezionare e indirizzare una conversazione verso la lunghezza, il formato, lo stile, il livello di dettaglio desiderato e la lingua. Le successive richieste e risposte dell’utente vengono prese in considerazione in ogni fase della conversazione come contesto.

Il Ministero del Commercio sta valutando una nuova iniziativa normativa per limitare l’esportazione di modelli di intelligenza artificiale proprietari o closed Source il cui software e i dati su cui sono formati sono tenuti segreti, hanno detto tre persone a conoscenza della questione.

Qualsiasi azione integrerebbe una serie di misure messe in atto negli ultimi due anni per bloccare l’esportazione di sofisticati chip di intelligenza artificiale verso la Cina, al fine di rallentare lo sviluppo di Pechino di questa tecnologia all’avanguardia per scopi militari. Anche così, sarà difficile per le autorità di regolamentazione tenere il passo con i rapidi sviluppi del settore.

L’ambasciata cinese ha descritto questo approccio come tipico atto di coercizione economica e intimidazione unilaterale, a cui la Cina si oppone fermamente aggiungendo che avrebbe preso misure necessarie per tutelare i propri interessi.

Attualmente, non c’è nulla che impedisca ai giganti americani dell’intelligenza artificiale, come OpenAI sostenuta da Microsoft, Google DeepMind di Alphabet e il suo rivale Anthropic, che hanno sviluppato alcuni dei più potenti modelli di intelligenza artificiale closed-Source, dal venderli a quasi chiunque nel mondo senza governo. supervisione.

I ricercatori del governo e del settore privato temono che gli avversari statunitensi possano utilizzare questi modelli, che sfruttano grandi quantità di testo e immagini per riassumere informazioni e generare contenuti, per condurre attacchi informatici aggressivi o addirittura creare potenti armi biologiche.

Una delle fonti ha affermato che eventuali nuovi controlli sulle esportazioni probabilmente prenderebbero di mira Russia, Cina, Corea del Nord e Iran. In un rapporto pubblicato a febbraio, Microsoft ha affermato di aver monitorato gruppi di hacker affiliati ai governi cinese e nordcoreano, nonché all’intelligence militare russa e alla Guardia rivoluzionaria iraniana, mentre tentavano di perfezionare le loro campagne di hacking utilizzando modelli linguistici di grandi dimensioni.

Potenza di calcolo

Per implementare i controlli sulle esportazioni di modelli di intelligenza artificiale, le fonti hanno affermato che gli Stati Uniti potrebbero prendere in considerazione una soglia contenuta in un ordine esecutivo sull’intelligenza artificiale emesso lo scorso ottobre, che si basa sulla potenza di calcolo necessaria per addestrare un modello. Quando viene raggiunta questa soglia, uno sviluppatore deve segnalare i propri piani di sviluppo del modello di intelligenza artificiale e fornire i risultati dei test al Ministero del Commercio.

Questa soglia di potenza di calcolo potrebbe servire come base per determinare quali modelli di intelligenza artificiale sarebbero soggetti a restrizioni sulle esportazioni, secondo due funzionari statunitensi e un’altra fonte informata delle discussioni. Hanno rifiutato di essere nominati perché i dettagli non sono stati resi pubblici.

Se questa soglia venisse utilizzata, probabilmente limiterebbe solo l’esportazione di modelli non ancora rilasciati, poiché nessuno ha ancora raggiunto la soglia, anche se Gemini Ultra di Google è considerato vicino ad essa, secondo EpochAI, un istituto di ricerca che monitora tendenze dell’intelligenza artificiale.

L’agenzia è lungi dal finalizzare una proposta di norma, notano le fonti. Ma il fatto che una simile misura venga presa in considerazione dimostra che il governo degli Stati Uniti sta cercando di colmare le lacune nei suoi sforzi per contrastare le ambizioni di Pechino sull’intelligenza artificiale, nonostante le gravi sfide legate all’imposizione di un regime normativo pesante per questa tecnologia in rapida evoluzione.

Mentre l’amministrazione Biden guarda alla concorrenza con la Cina e ai pericoli dell’intelligenza artificiale sofisticata, dei modelli di intelligenza artificiale sono ovviamente uno degli strumenti, uno dei potenziali punti di strozzatura a cui pensare qui ha detto Peter Harrell, ex funzionario del Consiglio di sicurezza nazionale. Resta da vedere se potrà, nella pratica, trasformarsi in un punto di strozzatura controllabile delle esportazioni. Ha aggiunto.

Armi biologiche e attacchi informatici?

La comunità dell’intelligence statunitense, i think tank e gli accademici sono sempre più preoccupati per i rischi posti da attori stranieri malintenzionati che hanno accesso a capacità avanzate di intelligenza artificiale. I ricercatori di Gryphon Scientific e Rand Corporation hanno notato che i modelli avanzati di intelligenza artificiale possono fornire informazioni che potrebbero aiutare a creare armi biologiche.

Il Ministero della Sicurezza Interna ha affermato che gli attori informatici probabilmente utilizzeranno l’intelligenza artificiale sviluppare nuovi strumenti in modo da consentire attacchi informatici più grandi, più rapidi, più efficienti e più invasivi nella sua valutazione delle minacce alla sicurezza interna nel 2024.

La potenziale esplosione dell’uso e dello sfruttamento [de l’IA] è radicale e in realtà abbiamo molte difficoltà a seguirlo Brian Holmes, un funzionario dell’ufficio del direttore dell’intelligence nazionale, ha dichiarato in una riunione sui controlli delle esportazioni a marzo, sottolineando che i progressi della Cina sono particolarmente preoccupanti.

La crisi dell’IA

Per affrontare queste preoccupazioni, gli Stati Uniti hanno adottato misure per arginare il flusso di chip IA americani e degli strumenti necessari per produrli verso la Cina.

Hanno inoltre proposto una regola che imponga alle società cloud statunitensi di avvisare il governo quando i clienti stranieri utilizzano i loro servizi per addestrare potenti modelli di intelligenza artificiale che potrebbero essere utilizzati per attacchi informatici.

Ma finora non ha affrontato la questione dei modelli di intelligenza artificiale stessi. Alan Estevez, che supervisiona la politica di esportazione degli Stati Uniti presso il Dipartimento del Commercio, ha dichiarato a dicembre che l’agenzia stava esplorando le opzioni per regolamentare le esportazioni di modelli linguistici di grandi dimensioni (LLM) prima di chiedere consiglio al Dipartimento del Commercio dell’industria.

Tim Fist, esperto di politiche sull’intelligenza artificiale presso il think tank CNAS con sede a Washington, DC, ritiene che questa soglia è una buona misura temporanea finché non avremo sviluppato metodi migliori per misurare le capacità e i rischi dei nuovi modelli .

Jamil Jaffer, ex funzionario della Casa Bianca e del Dipartimento di Giustizia, ha affermato che l’amministrazione Biden non dovrebbe utilizzare una soglia di potenza di calcolo, ma optare per un controllo basato sulle capacità del modello e sull’uso previsto. Concentrarsi sul rischio per la sicurezza nazionale piuttosto che sulle soglie tecnologiche è la soluzione migliore perché è più sostenibile e si concentra sulla minaccia ha dichiarato.

La soglia non è scolpita nella pietra. Una delle fonti ha affermato che il Dipartimento del Commercio potrebbe finire per fissare una soglia inferiore, a seconda di altri fattori, come il tipo di dati o i potenziali usi del modello di intelligenza artificiale, come la capacità di ingegnerizzare le proteine ​​a cui potrebbe essere utilizzato realizzare un’arma biologica.

Indipendentemente dalla soglia scelta, le esportazioni di modelli di intelligenza artificiale saranno difficili da controllare. Molti modelli sono software open Source, il che significa che rimarrebbero fuori dall’ambito dei controlli sulle esportazioni pianificati.

Anche imporre controlli sui modelli proprietari più avanzati si rivelerà difficile, perché i regolatori probabilmente avranno difficoltà a stabilire i giusti criteri per determinare quali modelli dovrebbero essere controllati, ha detto Fist, sottolineando che la Cina è probabilmente solo circa due anni indietro rispetto agli Stati Uniti in termini di sviluppando il proprio software di intelligenza artificiale.

I controlli sulle esportazioni proposti avrebbero un impatto sull’accesso al software principale che alimenta alcune applicazioni consumer come ChatGPT, ma non limiterebbero l’accesso alle stesse applicazioni downstream.

Fonti: L’amministrazione Biden, il Dipartimento del Commercio degli Stati Uniti

E lei ?

Qual è la tua opinione sull’argomento?

Trova credibile o rilevante questa iniziativa dell’amministrazione Biden?

Vedi anche:

La Cina ha approvato più di 40 modelli di intelligenza artificiale per uso pubblico nei primi sei mesi da quando le autorità hanno avviato il processo di approvazione, mentre il paese si sforza di mettersi al passo con gli Stati Uniti

La Cina supera gli Stati Uniti nella ricerca sull’intelligenza artificiale, la lotta per la supremazia si intensifica mentre entrambe le parti sono alle prese con problemi di sicurezza

-

PREV Investimenti audaci o incoscienza? MicroStrategy continua a scommettere su Bitcoin
NEXT Kia promette 2025 EV9 GT dalla potenza “enorme” | Novità automobilistiche