Un’associazione austriaca sporge denuncia contro ChatGPT che “divaga” e “inventa risposte”

Un’associazione austriaca sporge denuncia contro ChatGPT che “divaga” e “inventa risposte”
Descriptive text here
-

Quando ha chiesto a ChatGPT la data di nascita del suo fondatore Max Schrems, il chatbot “ha fornito sistematicamente informazioni false” invece di ammettere di non saperlo.

L’associazione viennese Noyb, attivista per la tutela della privacy, ha annunciato lunedì la presentazione di una denuncia in Austria contro l’interfaccia di intelligenza artificiale generativa (AI) delle stelle. “ChatGPT sta vagando” e anche il suo editore OpenAI “non può fermarlo”, sottolinea Noyb (per “None of your business”, che significa in inglese “Non sono affari tuoi”) in un comunicato stampa. Per l’associazione questo tipo di strumenti “inventa regolarmente risposte”.

“La tecnologia deve rispettare la legge”

“Se un sistema non può fornire risultati corretti e trasparenti, non può essere utilizzato per generare dati sugli individui. La tecnologia deve rispettare la legge e non il contrario”, insiste l’avvocato Maartje de Graaf, citato nel comunicato stampa. Ciò è semplicemente “inaccettabile”, secondo Noyb che ricorda che il Regolamento generale europeo sulla protezione dei dati (GDPR) prevede l’obbligo di accuratezza.

Tanto più che la società OpenAI “ha rifiutato la richiesta del denunciante di correggere o cancellare l’errore, sostenendo che era impossibile”, il disimparare l’IA è infatti un problema cruciale. Inoltre non ha risposto alla sua richiesta di accesso ai dati che lo riguardano e alle fonti di informazione, sempre in violazione della legge.

Proteggi la privacy

Nella sua denuncia, l’associazione (divenuta la rovina dei colossi della tecnologia fin dalla sua creazione nel 2018) chiede all’autorità austriaca per la protezione dei dati di aprire un’indagine e imporre una multa all’azienda californiana.

“Ci impegniamo a proteggere la privacy dei dati”, ha risposto un portavoce di OpenAI. “Vogliamo che i nostri modelli di intelligenza artificiale imparino a conoscere il mondo, non gli individui; Non cerchiamo attivamente informazioni personali per addestrare i nostri modelli e non utilizziamo informazioni pubbliche su Internet per profilare, pubblicizzare o indirizzare le persone o vendere i loro dati.

Un gruppo di lavoro europeo

Le procedure sono già state avviate in diversi paesi. L’Italia ha temporaneamente bloccato il programma nel marzo 2023, mentre l’autorità di regolamentazione francese (Cnil) ha iniziato a esaminare una serie di denunce. È stato inoltre istituito un gruppo di lavoro europeo per promuovere la cooperazione tra le autorità.

“Resta da vedere dove ci porterà”, commenta Noyb, scettico per il momento sugli sforzi del governo per regolamentare l’intelligenza artificiale.

-

NEXT Una donna svizzera si ritrova tra lenzuola sporche, macchiate di sperma