DayFR Italian

PARERE DELL’ESPERTO – Come garantire la privacy dei clienti quando si utilizzano le tecnologie AI

-

Recentemente, un gigante della tecnologia ha introdotto una funzionalità AI che acquisisce screenshot e li archivia localmente sui suoi prossimi PC AI per un successivo richiamo. Nonostante le assicurazioni dell’azienda in merito alla crittografia, l’ICO (Information Commissioner’s Office) del Regno Unito sta cercando maggiori informazioni sulla conformità e sulla sicurezza del prodotto. I difensori della privacy hanno chiamato questa funzionalità “incubo per la privacy”portando l’azienda a ritardarne il rilascio.

Di Ivan Lebowski, Sales Team Leader presso Synology

Recentemente, un gigante della tecnologia ha introdotto una funzionalità AI che acquisisce screenshot e li archivia localmente sui suoi prossimi PC AI per un successivo richiamo. Nonostante le assicurazioni dell’azienda in merito alla crittografia, l’ICO (Information Commissioner’s Office) del Regno Unito sta cercando maggiori informazioni sulla conformità e sulla sicurezza del prodotto. I difensori della privacy hanno chiamato questa funzionalità “incubo per la privacy”portando l’azienda a ritardarne il rilascio.

Questo incidente evidenzia preoccupazioni più ampie sulla privacy delle tecnologie basate sull’intelligenza artificiale. Pertanto, i servizi di gestione delle foto nel cloud pubblico utilizzano spesso il riconoscimento facciale per organizzare le foto, offrendo comodità ma sollevando problemi di privacy. Tuttavia, mentre le aziende enfatizzano la crittografia e il controllo degli utenti, i difensori della privacy esprimono preoccupazioni sulla raccolta dei dati, sul potenziale uso improprio e sulla creazione di database di riconoscimento facciale. L’utilizzo di un NAS garantisce una sicurezza ottimale.

Per i fornitori di soluzioni cloud private, la sicurezza dei dati e la privacy sono le massime priorità. Che si tratti di un NAS (Network Attacked Storage) o di un cloud privato, la proprietà dei dati è un aspetto fondamentale. I clienti devono essere certi che i loro dati rimangano sotto il loro controllo e non vengano sfruttati per scopi non autorizzati. Sebbene le capacità dell’intelligenza artificiale vengano integrate negli ecosistemi, è essenziale garantire che i diritti alla privacy siano integrati nei principi di progettazione, avendo la precedenza sull’efficienza funzionale. Anche la trasparenza è fondamentale, poiché consente ai clienti di sapere dove sono archiviati i loro dati, come sono protetti e chi ha accesso ad essi. Integrando questi principi fin dalla progettazione, i fornitori possono non solo proteggere i dati dei propri clienti, ma anche aumentare la loro fiducia e soddisfazione.

Leggi anche…

Articolo della settimana

Garantire la privacy dei dati con modelli AI preaddestrati e architettura cloud privata

Le tecniche di riconoscimento di volti e oggetti possono essere integrate nelle applicazioni di gestione delle foto per migliorare l’esperienza di gestione e ricerca. Questi modelli di riconoscimento AI utilizzati in queste applicazioni vengono pre-addestrati con set di dati disponibili pubblicamente durante lo sviluppo, prima di qualsiasi interazione dell’utente con l’applicazione.

A differenza dei servizi di gestione delle foto SaaS che archiviano i dati degli utenti nei data center del fornitore della soluzione, tutti i dati degli utenti risiedono sui loro dispositivi privati, garantendo la piena proprietà dei dati. Ciò significa che i dati degli utenti non possono e non saranno mai utilizzati per l’addestramento dei modelli di intelligenza artificiale.

Allo stesso modo, le soluzioni di sorveglianza possono integrare funzionalità avanzate di intelligenza artificiale come il rilevamento di persone e veicoli, il riconoscimento facciale e il tracciamento degli oggetti, migliorando la sicurezza riducendo i falsi allarmi. Questi modelli di intelligenza artificiale preaddestrati funzionano in modo efficiente all’interno della rete dell’utente. Questo approccio, combinato con la crittografia dei dati e le impostazioni di controllo degli accessi, fornisce potenti strumenti di monitoraggio garantendo al tempo stesso la privacy e la sicurezza dei dati degli utenti, eliminando il rischio di dipendenza da servizi cloud di terze parti.

Affronta l’IA fantasma e le fughe di dati con una console di amministrazione dedicata

I Large Language Models (LLM) possono essere integrati nelle suite per ufficio, consentendo agli utenti di incorporare l’intelligenza artificiale generativa come assistente alla scrittura per e-mail, diapositive, documenti e fogli di calcolo.

Per aiutare le organizzazioni a mantenere la privacy e mitigare il rischio dell’IA ombra durante l’utilizzo di strumenti di intelligenza artificiale generativa, è possibile introdurre una console di amministrazione AI per gli amministratori di sistema. Questo strumento fornisce un controllo granulare su quali modelli e versioni di intelligenza artificiale possono essere distribuiti all’interno dell’organizzazione, autorizzazioni per i modelli consentiti tra organizzazioni, gruppi o individui e impostazioni di anonimizzazione comprese informazioni specifiche della regione come il numero di previdenza sociale (SSN). Ciò consente alle aziende di utilizzare gli strumenti di intelligenza artificiale in modo sicuro senza compromettere i dati sensibili.

Solido supporto clienti basato sull’intelligenza artificiale attraverso processi di anonimizzazione conformi al GDPR

L’intelligenza artificiale può essere utilizzata anche per migliorare l’esperienza del servizio clienti. È possibile creare un sistema di supporto AI per estrarre dati da una base di conoscenza costituita da dati di supporto tecnico passati anonimizzati.

Per garantire la protezione della privacy del cliente, i dati di supporto utilizzati in passato per creare il database vengono sottoposti a un processo completo di anonimizzazione. Ciò include metodologie come Regex, Named Entity Recognition (NER), convalida del checksum e analisi contestuale per rilevare e rendere anonime le informazioni sensibili. Inoltre, utilizza barriere di query per impedire la condivisione di informazioni sensibili o chiedere involontariamente agli utenti di eliminare dati critici.

Impegno costante per la privacy dei dati

In mezzo a questi sviluppi, è fondamentale mantenere l’impegno a dare priorità alla privacy. Grazie ai principi di progettazione incentrati sulla privacy e alle linee guida sulla sicurezza dei dati, gli utenti possono avere la certezza che i propri dati siano sicuri e protetti, consentendo loro di beneficiare dei progressi dell’intelligenza artificiale senza compromettere la propria privacy.

Related News :