DayFR Italian

no, ma abbiamo bisogno di tutele

-

L’intelligenza artificiale rappresenta un’opportunità per focalizzarsi su attività ad alto valore aggiunto. Ma ciò richiede un rigoroso controllo umano per garantire il rispetto dei principi etici e della qualità delle analisi, rimanendo vigili per prevenire rischi a lungo termine come la pigrizia intellettuale, che potrebbero emergere dall’uso acritico dell’intelligenza artificiale. Spiegazioni con Stéphanie Corbière, Group Head of Legal & Compliance Aramis Group e co-fondatrice del gruppo scientifico AFJE AI.

Una rifocalizzazione sulle missioni strategiche

Gli strumenti di intelligenza artificiale semplificano l’automazione di attività ripetitive, come la ricerca documentale, la redazione di documenti standardizzati o l’analisi dei contratti, lasciando agli avvocati tempo libero per concentrarsi su missioni più complesse, ad es.

  • gestione del rischio legale;
  • strategia contrattuale;
  • trattative complesse.

Mentre numerosi studi, come quello di Goldman Sachs del 2023, evidenziano i rischi di scomparsa di diverse professioni a causa dell’ascesa dell’intelligenza artificiale, le missioni complesse richiedono competenze umane essenziali. Il MIT CSAIL ha chiarito, tuttavia, che l’automazione presenta alcune limitazioni e non tutte le funzioni sono pronte per l’automazione. Lo studio del luglio 2024 condotto dalla PWC Law Society ha indicato che i settori più sfumati della consulenza legale, dell’interazione con i clienti e dei contenziosi complessi continueranno a fare molto affidamento sulle competenze umane.

Gestione aziendale

La gestione aziendale costituisce l’attività essenziale di un manager d’impresa. Utilizza un gran numero di concetti presi in prestito dalla contabilità, dalla finanza (gestione del rischio attraverso la gestione patrimoniale e l’assicurazione professionale), dal diritto commerciale (status giuridico, contratti commerciali, fiscalità, quadro normativo e attività legale), dalla gestione delle risorse umane…

Scopri tutti i contenuti correlati

L’importanza del controllo umano: etica e bias algoritmico

Anche se l’intelligenza artificiale è in grado di elaborare rapidamente grandi volumi di dati, può riprodurre i bias presenti nei dati di addestramento. Ecco perché è essenziale che gli avvocati mantengano il controllo del processo. Il loro ruolo è necessario per:

  • verificare che le decisioni prese o le analisi proposte dall’AI rispettino l’etica e la conformità normativa;
  • controllare i pregiudizi algoritmici che potrebbero portare a decisioni ingiuste o distorte.

Gli avvocati devono quindi svolgere un ruolo di controllo, monitorando costantemente le decisioni sull’IA e garantendone la conformità.

Pertanto, lo studio PWC del luglio 2024 indica che il 48% delle aziende intervistate ha già iniziato a pensare all’IA responsabile, che implica in particolare la creazione di una governance solida e un approccio etico responsabile. Lo sviluppo del ruolo del “Digital Trust Officer” potrebbe essere sempre più sviluppato.

Un aumento delle competenze per la nuova generazione

Contrariamente all’idea secondo cui l’intelligenza artificiale potrebbe portare a una dequalificazione dei giovani avvocati, essa consente loro di sviluppare nuove competenze e adeguati strumenti tecnologici moderni. Gli avvocati di domani potrebbero non dedicare più tanto tempo a compiti semplici, come riassumere i contratti, ma saranno formati su casi d’uso innovativi, che potrebbero dare nuova vita alla professione.

Lo studio di Thomson Reuter del maggio 2023 sulla formazione dei professionisti legali dimostra che l’intelligenza artificiale può aiutare i giovani professionisti a sviluppare competenze tecnologiche, che probabilmente consentiranno loro di rispondere meglio alle sfide legali contemporanee con diverse tipologie di formazione: apprendimento continuo, apprendimento misto, gamification o, ad esempio, la formazione in competenze non tecniche tra cui il pensiero critico, la risoluzione dei problemi e la creatività.

Necessaria attuazione della vigilanza a lungo termine per preservare le competenze

Un potenziale pericolo di un’eccessiva automazione delle attività è la graduale perdita di know-how e competenze critiche. Se l’intelligenza artificiale dovesse farsi carico di alcuni compiti complicati, ciò potrebbe portare a un impoverimento delle competenze degli avvocati, in particolare quando si tratta di pensiero giuridico complesso.

I rischi a lungo termine includono:

  • il declino della qualità dei servizi legali: un eccessivo affidamento all’intelligenza artificiale potrebbe standardizzare le risposte, riducendo la capacità degli avvocati di fornire consulenza personalizzata e sfumata;
  • perdita di innovazione: l’automazione potrebbe limitare la creatività e l’innovazione giuridica, incoraggiando un approccio eccessivamente meccanizzato alle soluzioni legali;
  • pigrizia intellettuale: l’uso acritico delle tecnologie potrebbe portare ad un indebolimento delle capacità di analisi e di giudizio.

Per prevenire questi rischi è essenziale non affidarsi interamente all’intelligenza artificiale. Gli avvocati devono continuare a svolgere un ruolo attivo nello sviluppo di soluzioni, convalidando sistematicamente i risultati prodotti dall’intelligenza artificiale.

Restare critici nei confronti dell’IA: errori e allucinazioni

Sebbene l’intelligenza artificiale sia efficace, non è infallibile. Errori algoritmici e allucinazioni sono ancora frequenti, da qui l’importanza di un controllo rigoroso da parte degli avvocati. Due esempi illustrano questa situazione:

  • DPD ha dovuto disattivare parte del suo chatbot nel 2024 dopo che aveva iniziato a insultare i clienti invece di risolvere i loro problemi (qui semplice domanda su un pacco smarrito. Incapace di risolvere la richiesta, l’IA ha risposto con insulti e ha persino scritto una poesia in cui criticava duramente la azienda stessa.)
  • Nel 2018, Amazon ha dovuto abbandonare il suo progetto di intelligenza artificiale per il reclutamento dopo aver scoperto che il sistema discriminava sistematicamente le donne.

La legge sull’intelligenza artificiale mira a imporre norme rigorose sui sistemi di intelligenza artificiale ad alto rischio. Questa legislazione evidenzia l’importanza della trasparenza, del controllo umano e della gestione dei pregiudizi per prevenire potenziali errori e discriminazioni. In qualità di utenti o regolatori, dobbiamo quindi svolgere un ruolo attivo nel monitoraggio di queste tecnologie, garantendo che soddisfino questi elevati standard etici e legali.

Questa analisi illustra come l’intelligenza artificiale può ottimizzare i processi all’interno degli uffici legali, richiedendo al contempo un’attenta supervisione per garantire l’etica e la conformità normativa. Queste discussioni sono in linea con gli obiettivi del gruppo scientifico AFJE AI, che mira a fornire agli avvocati le competenze necessarie per integrare saggiamente l’intelligenza artificiale nelle loro pratiche. Questa iniziativa aiuta a preparare gli avvocati a utilizzare l’intelligenza artificiale in modo responsabile e informato, tenendo conto delle implicazioni legali ed etiche di queste tecnologie.

Related News :