La sicurezza è in sospeso da GenAI?

La sicurezza è in sospeso da GenAI?
La sicurezza è in sospeso da GenAI?
-

Negli ultimi mesi, non c’è stata una sola conferenza tecnica IT o presentazione di vendite senza almeno un capitolo sull’intelligenza artificiale. Ma cosa significa questo, ad esempio, per la sicurezza, settore in cui preferiremmo non subire attacchi clamorosi? Per scoprirlo ci siamo recati presso la società di sicurezza europea Eset.

Anche la GenAI è un tema molto presente in Eset. È così che l’azienda di sicurezza slovacca annuncia il suo primo AI Advisor. Il chatbot mira ad aiutare gli analisti della sicurezza, in particolare esaminando i numerosi rapporti di ricerca pubblicati. “Lo abbiamo ulteriormente ottimizzato affinché funzioni in gran parte indipendentemente dai terminali”, afferma Riccardo MarkoCEO di Eset, al pubblico della conferenza Eset World a Bratislava, in Slovacchia.

Questo lavoro offline è sorprendente, poiché nel frattempo ci stiamo abituando alla costante necessità di una connessione Internet di cui i giganti della tecnologia hanno bisogno per gestire la loro intelligenza artificiale nel cloud. Ma per motivi di sicurezza è anche opportuno disconnettere di tanto in tanto la rete. Come nel caso di un attacco attivo. “Abbiamo anche molti clienti che rimangono off-grid, ad esempio in ambienti “airlocked”,” aggiunge Juraj Jánošík , responsabile dell’apprendimento AI/ML presso Eset. Pensiamo ad esempio alle navi portacontainer, che non sono in rete, ma che necessitano di essere aggiornate di tanto in tanto e sono quindi vulnerabili alle infezioni. “Anche in questo caso vogliamo poter installare moduli in grado di rilevare codici dannosi”, spiega.

Non nuovo

Gli scanner del software di sicurezza Esets Protect, e quelli della maggior parte degli altri fornitori, incorporano già da diversi anni l’apprendimento automatico e algoritmi per rilevare meglio il malware. “Non si tratta di una novità”, sottolinea Jánošík a Data News. “Utilizziamo algoritmi per rilevare malware e attacchi ormai da anni e li stiamo perfezionando altrettanto a lungo. Ora utilizziamo le tecnologie più recenti a questo scopo, come i trasformatori. Il trucco, tuttavia, è ridurre le dimensioni dell’IA. Nel cloud puoi fare quello che vuoi: eseguire modelli molto grandi che consumano molta energia, ma sui loro dispositivi gli utenti vogliono che la sicurezza rallenti il ​​meno possibile le operazioni.’

Questi modelli sono attualmente ottimizzati per l’esecuzione su CPU. “Ma stiamo lavorando con Intel per creare progetti che possano funzionare su nuovi chip in una NPU (Neural Processing Unit). Ciò dovrebbe essere ancora più efficace”, aggiunge Janošík.

NPU

Questo tipo di NPU è l’arma segreta dei PC potenziati dall’intelligenza artificiale, che sono comparsi negli ultimi mesi. “Ora esiste una serie di fornitori che fabbricano questi prodotti”, afferma Alastair Edwards di Canalys. “Prevediamo che entro il 2027, circa il sessanta per cento di tutti i PC venduti conterrà una NPU.” Una NPU deve, tra le altre cose, fornire risultati migliori nell’elaborazione dell’intelligenza artificiale. “Ti consente di eseguire funzioni di intelligenza artificiale sul dispositivo stesso, anziché nel cloud”, afferma Edwards. “È più veloce e, poiché si toglie parte del lavoro alla GPU e alla CPU, può anche essere più efficiente dal punto di vista energetico.” Ciò è positivo, tra le altre cose, per la durata della batteria di un dispositivo del genere.’

Eseguendo anche parte del rilevamento malware su questa NPU, Eset spera di creare un modulo più veloce e indipendente, in grado di utilizzare la nuova tecnologia anche offline.

‘L’altra parte’

Le aziende di sicurezza riconoscono quindi il valore dell’intelligenza artificiale, ma la tecnologia non offre gli stessi vantaggi anche per l'”altra parte”? “Eset non distingue direttamente molti movimenti nell’intelligenza artificiale per le bande criminali,” dice Juraj Malcho, CTO di Eset: ‘Vediamo che le bande stesse non formano LLM. Si preoccupano principalmente di provare a effettuare il “jailbreak” di modelli esistenti come quelli di OpenAI o Mistral. Cercano quindi di usarli per i propri fini.’

Elod Kironskij , vicepresidente di Endpoint Solutions, è d’accordo: “I criminali non hanno l’hardware o i dati per creare modelli da soli”. E poiché questi modelli funzionano con dati più vecchi, il pericolo è inferiore a quanto pensi. ‘I dati di un Lama o di un Mistral sono congelati nel tempo, mentre le organizzazioni che desiderano raggiungere sono in continua evoluzione. I criminali non dispongono dei dati necessari per creare un’intelligenza artificiale offensiva. Per essere chiari, non stiamo parlando di stati nazionali che dispongono delle risorse e del personale necessari. Ma nel settore della sicurezza attualmente vediamo soprattutto i lati positivi. “Finora abbiamo sempre cercato di tenere il passo”, dice Juraj Jánošík. “Cerchiamo di creare livelli di protezione mentre gli aggressori cercano di aggirarli. Possono anche bypassare l’intelligenza artificiale, che è un livello aggiuntivo, ma questo ci dà un piccolo vantaggio. I modelli di cui disponiamo oggi possono essere utilizzati per aiutare i ricercatori nella reportistica e nell’amministrazione, consentendo loro di concentrarsi su ciò che è importante, come l’individuazione delle minacce. Poiché attualmente vi è una carenza di ricercatori nel campo della sicurezza, si tratta di una risorsa importante.”

-

NEXT Scopri dove guardare live streaming e trasmissioni televisive in India