Secondo i dipendenti OpenAI | I giganti dell’intelligenza artificiale devono accettare che i loro dipendenti esprimano dubbi

Secondo i dipendenti OpenAI | I giganti dell’intelligenza artificiale devono accettare che i loro dipendenti esprimano dubbi
Secondo i dipendenti OpenAI | I giganti dell’intelligenza artificiale devono accettare che i loro dipendenti esprimano dubbi
-

(New York) Le aziende più avanzate nel campo dell’intelligenza artificiale (AI) devono accettare che i loro dipendenti diano pubblicamente uno sguardo critico alle loro attività e ai rischi legati all’intelligenza artificiale, hanno chiesto diversi dipendenti di OpenAI coperti dall’anonimato così come ex membri dell’avvio.


Inserito alle 18:56

“Nella misura in cui queste aziende non sono soggette al controllo delle autorità, gli attuali o ex dipendenti sono tra le poche persone che possono chiederne conto”, spiegano i 13 firmatari della lettera aperta, pubblicata martedì.

Tra loro ci sono quattro dipendenti OpenAI e sette ex studenti.

Questi firmatari si rammaricano del fatto che “clausole di riservatezza esaustive impediscano loro di esprimere le (loro) preoccupazioni” pubblicamente.

Nella misura in cui i problemi che questi programmatori desiderano sollevare non riguardano attività illegali, non possono beneficiare dello status di informatore, sottolineano.

“Alcuni di noi temono ritorsioni (dovremmo comunicare apertamente), visti i precedenti che esistono nel settore”, si legge nella lettera.

Tra i rischi citati, “il rafforzamento delle disuguaglianze, la manipolazione, la disinformazione, arrivando fino alla perdita di controllo dei sistemi di intelligenza artificiale autonomi che potrebbero portare all’estinzione dell’umanità”.

Se credono che questi rischi possano essere limitati “con l’aiuto della comunità scientifica, delle autorità e del pubblico”, “le aziende di intelligenza artificiale hanno un incentivo finanziario per sfuggire a una supervisione efficace”.

Gli autori della lettera chiedono quindi alle principali aziende di intelligenza artificiale di “sostenere una cultura di critica aperta consentendo ai loro attuali ed ex dipendenti di sollevare pubblicamente preoccupazioni relative alle loro tecnologie”.

Incoraggiano inoltre la creazione di canali di segnalazione anonimi internamente per avvisare di determinati rischi.

Interrogato da AFP, Open AI ha affermato di essere “orgoglioso” di avere quelli che considera i sistemi di intelligenza artificiale “più potenti e sicuri”.

“Condividiamo l’idea che un dibattito rigoroso sia fondamentale data la portata di questa tecnologia e continueremo a scambiare con governi, società civile e altre entità in tutto il mondo”, ha aggiunto un portavoce di OpenAI.

-

PREV Serica Energy acquista azioni per un valore di £ 170.000
NEXT quando le aziende cercano di limitare i risarcimenti per i viaggiatori