Due anni dopo la creazione di ChatGPT, Nicolas Blanc, segretario nazionale per la transizione economica della CFE-CGC, analizza le pratiche tecnologiche nelle aziende e il suo utilizzo da parte dei dipendenti e dei rappresentanti del personale.
Creato nel novembre 2022, lo strumento di intelligenza artificiale ChatGPT ha festeggiato il suo secondo anniversario. Quali conclusioni possiamo trarre dal suo dispiegamento?
ChatGPT ha rapidamente superato il suo obiettivo iniziale di semplice progetto dimostrativo. Non possiamo più ignorarlo. Progettato dalla società statunitense OpenAI per esplorare il modo in cui gli utenti interagirebbero con uno strumento basato sul modello linguistico GPT 3.5, ChatGPT ha visto un’adozione massiccia, sorprendendo anche i suoi creatori. In soli due mesi ha accumulato una base di 100 milioni di utenti! Questo successo dimostra il potenziale dei modelli linguistici di grandi dimensioni (LLM), che si basano sull’architettura “trasformata” introdotta da Google nel 2017. Grazie ai meccanismi di auto-attenzione, questi modelli elaborano e generano testo allo stesso tempo ed eccellono compiti come la comprensione del linguaggio naturale.
E nel mondo professionale?
Stiamo già vedendo emergere molti usi sul lavoro, ma oggi dobbiamo regolamentare queste pratiche che si svilupperanno ulteriormente con l’arrivo di Microsoft Copilot, uno strumento di tipo ChatGPT che sarà integrato nella sua suite per ufficio e software.
Sempre più dipendenti utilizzano “discretamente” ChatGPT per il loro lavoro. Cosa ne pensi?
Questo fenomeno di “Shadow AI” si riferisce all’uso di soluzioni di intelligenza artificiale generativa come ChatGPT o Google Gemini senza l’approvazione dell’azienda. Ad esempio, l’uso dell’intelligenza artificiale sui dispositivi personali del dipendente per correggere testo, generare contenuti o scrivere un’e-mail a un cliente. I casi d’uso dell’IA nonostante le politiche messe in atto dalle organizzazioni sono in aumento. Nonostante gli innegabili vantaggi, questo utilizzo “clandestino” solleva serie preoccupazioni per quanto riguarda la sicurezza e la riservatezza dei dati. Alcuni GAFAM (Microsoft, Apple, Amazon) hanno anche vietato ai propri dipendenti di utilizzare ChatGPT per uso professionale. Questo non è banale!
In che modo ciò costituisce un rischio per le imprese?
Indipendentemente dalle regole messe in atto, l’IA ombra presenta rischi molto reali poiché le soluzioni di intelligenza artificiale assorbono una grande quantità di dati per funzionare. Senza controllo e supervisione, è possibile che i dati aziendali sensibili vengano esposti o utilizzati in modo inappropriato. La Shadow AI può anche introdurre vulnerabilità nei sistemi aziendali perché le soluzioni utilizzate non sono soggette agli stessi controlli di sicurezza approvati dal dipartimento IT… Sicurezza e riservatezza dei dati aziendali sono quindi i due rischi principali e i dipendenti non devono quindi esporsi in pericolo.
Come possiamo regolamentare queste pratiche?
L’idea non è vietarli ma sostenerli. Per fare ciò, le aziende devono prima discuterne con i rappresentanti del personale per riprendere il controllo e definire le condizioni di utilizzo da parte dei propri dipendenti di questo tipo di strumenti. Ciò può comportare la negoziazione di una carta in cui i dipendenti si impegnano a rispettare le regole negoziate mediante accordo. Naturalmente è necessario associare a ciò una politica di sensibilizzazione e formazione dei dipendenti per rendere coerente l’approccio.
È inoltre fondamentale fornire un’adeguata formazione ai dipendenti sui rischi legati all’uso dell’IA e sulle migliori pratiche da adottare. Ciò aumenterà la consapevolezza sulle questioni legate alla sicurezza dei dati e alla privacy, nonché sui limiti e sugli usi appropriati dell’intelligenza artificiale generativa. Alcune aziende hanno già preso l’iniziativa implementando il proprio ChatGPT sicuro per contrastare queste pratiche selvagge. In ogni caso, raccomandiamo alle aziende di effettuare una consultazione-informazione per coinvolgere i lavoratori e i loro rappresentanti nei consigli economici e sociali (CSE). Ciò consente un processo di distribuzione trasparente e agevole per tutti i dipendenti.
Anche i rappresentanti del personale e i sindacati possono utilizzare l’intelligenza artificiale generativa. Quali dovrebbero essere le buone pratiche?
Naturalmente possiamo immaginare che tali strumenti possano aiutarli a preparare sintesi delle riunioni del CSE, scrivere volantini sindacali o negoziare accordi. Anche in questo caso è necessaria cautela. Senza volerli vietare, dobbiamo però regolamentare questi usi e richiamare le buone pratiche in termini di riservatezza e sicurezza dei dati. I documenti forniti nell’ambito di una consultazione informativa possono essere riservati. Lo stesso vale per la negoziazione di un accordo.
Inoltre, l’utilizzo di una soluzione a pagamento, ad esempio ChatGPT, non garantisce una sicurezza assoluta, come sottolinea OpenAI. nelle sue FAQ. In effetti, non devi nemmeno indicare nulla di confidenziale negli scambi che hai con lo strumento, quelli che chiamiamo “prompt”. Ma raramente lo sappiamo… Nel complesso, è quindi opportuno che le parti interessate lo adottino una posizione di titolare del trattamento ai sensi del GDPRcon i conseguenti impegni.
Come funziona il CFE-CGC su tutti questi temi?
Indaghiamo da molto tempo sull’intelligenza artificiale, ad esempio con il progetto europeo SecoIADeal su dialogo sociale e intelligenza artificiale. Lavoreremo su una guida sull’intelligenza artificiale che ci ricorderà le buone pratiche per i nostri membri e attivisti. Sarà anche l’occasione per educare all’utilizzo di questi sistemi dal punto di vista ambientale poiché, secondo diversi studi, una semplice query su ChatGPT consuma dieci volte più energia di una ricerca su Google.
Allo stesso tempo, la nostra rete di referenti AI nelle federazioni CFE-CGC è garante della diffusione di queste regole il più vicino possibile ai nostri membri e attivisti. Stiamo inoltre lavorando alla qualificazione di un certo numero di strumenti di intelligenza artificiale o di formazione che soddisfino elevati requisiti di sicurezza e riservatezza per consentire ai nostri membri di beneficiare in tutta tranquillità dei vantaggi dell’intelligenza artificiale generativa.
Commenti raccolti da Mathieu Bahuet