il comitato di valutazione esprime dubbi sull’efficacia del sistema messo in atto per i Giochi di Parigi

il comitato di valutazione esprime dubbi sull’efficacia del sistema messo in atto per i Giochi di Parigi
il comitato di valutazione esprime dubbi sull’efficacia del sistema messo in atto per i Giochi di Parigi
-

Il comitato di valutazione, incaricato di valutare l’utilizzo della videosorveglianza algoritmica (VSA) testata durante i Giochi Olimpici di Parigi 2024, esprime dubbi sull’efficacia del dispositivo, in un rapporto consultato da Il mondo e franceinfo mercoledì 15 gennaio. Il rapporto è stato presentato martedì al Viminale.

Ricordiamo che la videosorveglianza algoritmica è una tecnologia basata su software associato alle telecamere di sorveglianza per identificare eventi ritenuti sospetti o a rischio, prima di allertare un operatore in tempo reale. Testato durante le Olimpiadi, il governo ha da allora preso in considerazione la possibilità di generalizzare il sistema. Il testo della legge prevede già una proroga fino al 31 marzo 2025. Matignon ha precisato di attendere il rapporto del comitato di valutazione per prendere una decisione.

In questo resoconto di un centinaio di pagine consultato da franceinfo e dall’agenzia Radio , emerge quanto emerge “che l’utilizzo dell’elaborazione algoritmica implementata nell’ambito dell’esperimento ha portato a prestazioni tecniche disuguali, che variano notevolmente a seconda degli operatori e dei casi d’uso, dei contesti di utilizzo, nonché delle caratteristiche tecniche e del posizionamento della fotocamera.

Il comitato ritiene che l’interesse del dispositivo nel contesto dell’esperimento “dipende in gran parte dal contesto di utilizzo”. Tra le conclusioni, la commissione ritiene che la VSA sia, ad esempio, “meno efficace quando c’è poca illuminazione” e i risultati sono più rilevanti “in spazi chiusi o semichiusi, in particolare corridoi e stazioni della metropolitana, rispetto ai risultati osservati negli spazi aperti”.

Le prestazioni tecniche del dispositivo sono “nel complesso soddisfacente” per alcuni casi d’uso come “l’intrusione di persone o veicoli in un’area non autorizzata, il traffico in una direzione non autorizzata, o anche la densità delle persone”. Tuttavia, con alcune riserve. Per quanto riguarda la densità delle persone, ad esempio, “il software a volte aveva difficoltà a contare troppe persone (…) a causa dell’altezza delle telecamere.” Il dispositivo appare infatti “meno efficace quando le telecamere sono troppo vicine al pubblico, con i corpi non completamente visibili”. Per quanto riguarda i movimenti della folla, l’efficacia del dispositivo è “difficile da valutare”spiega il rapporto. “I pochi rendimenti indicano le difficoltà incontrate nell’individuare i movimenti reali. L’elaborazione può, in particolare, assimilare gruppi di persone che si muovono nella stessa direzione, senza particolare fretta. È difficile definire il raggruppamento o i movimenti di raggruppamento. rapida dispersione.

Un altro punto evidenziato dal rapporto è quello degli oggetti abbandonati. Le prestazioni vengono giudicate “molto irregolare”. Ad esempio, si fa confusione tra gli oggetti incustoditi e quelli la cui presenza nei locali non è anomala: “Il trattamento assimila quindi regolarmente arredi urbani (panchine, pannelli) o anche attrezzature per la pulizia (bidoni della spazzatura, secchi e macchine per la pulizia) e altri oggetti fissi o abituali. Più seriamente, a volte assimila persone sedute o statiche, in particolare i senzatetto.

Nonostante ciò, il rapporto lo afferma “gli agenti interessati sono generalmente soddisfatti dell’attuazione del sistema”. “L’integrazione degli schermi delle telecamere AI nelle sale di comando, quando è stata realizzata, ha contribuito a promuovere la complementarità delle telecamere convenzionali e delle telecamere AI”.

Per il comitato, “abbandono, estensione o perpetuazione” del dispositivo è “una scelta politica” che non rientra nella sua missione. Tuttavia, la commissione ritiene che se questo sistema verrà attuato, “è necessaria una particolare vigilanza (…) in particolare per prevenire qualsiasi rischio di abuso di scopi legali o, più fondamentalmente, di assuefazione all’uso di tale tecnologia a fini di sorveglianza”.

Se l’esperimento verrà prolungato o reso permanente, il comitato ritiene importante che il “legislatore” riafferma diversi principi generali come “il controllo dei parlamentari a monte e il rinvio ai progetti di decreto presentati alla CNIL”. Altri principi da riaffermare: “Il divieto del riconoscimento facciale al di fuori del contesto giudiziario, la costante valutazione delle questioni relative alle libertà pubbliche e ai diritti fondamentali”o anche “Informare chiaramente il pubblico sull’esatta portata dell’uso di telecamere dotate di intelligenza artificiale per quanto riguarda il loro diritto di accesso”. “È essenziale”, insiste il comitato, “che l’informazione fornita sia sufficiente a garantire che i cittadini siano informati e conoscano i diritti loro riconosciuti dal diritto europeo e dalla legislazione nazionale”.

Laurent Nuñez, capo della polizia di Parigi, si è detto favorevole alla generalizzazione del sistema, così come hanno fatto il Ministero degli Interni e il ministro dei Trasporti, Philippe Tabarot, in un articolo su Le Parisien. Le associazioni che difendono le libertà, dal canto loro, temono una sorveglianza diffusa nonostante la linea rossa finora fissata dal governo: l’uso del riconoscimento facciale.

-

PREV Una madre aggredita con un coltello mentre faceva jogging, l’aggressore ancora in fuga: cosa sappiamo del caso
NEXT “Bisogna denunciare la cascata di subappaltatori”, nel Lotto cresce la preoccupazione per i problemi di manutenzione e diffusione della fibra