OpenAI, Google o Microsoft si impegnano a rimuovere l’intelligenza artificiale che presenta un rischio intollerabile

-

Sedici leader globali dell’intelligenza artificiale, tra cui Google, Microsoft, IBM e OpenAI, si sono impegnati a disabilitare la propria tecnologia se mostra segni di causare un esito distopico.

Gli impegni sono stati firmati in occasione dell’inaugurazione del Summit AI Seoul 2024, tenutosi questa settimana in Corea del Sud. L’evento fa seguito all’AI Security Summit dello scorso anno, durante il quale 28 paesi e l’UE hanno firmato la Dichiarazione di Bletchleyuna visione condivisa per affrontare i rischi legati all’intelligenza artificiale, ma senza impegni concreti o pratici.

In vista dell’evento di quest’anno, il primo ministro britannico Rishi Sunak e il presidente sudcoreano Yoon Suk Yeol hanno scritto un articolo d’opinione affermando: “Il ritmo del cambiamento continuerà ad accelerare, quindi anche il nostro lavoro deve accelerare”.

Un vertice per evitare la creazione di Skynet

Il vertice di Seul ha portato a una serie di impegni per la sicurezza delle frontiere dell’AI, in base ai quali i firmatari pubblicheranno quadri di sicurezza su come valuteranno i rischi dei loro modelli di intelligenza artificiale.

Ciò include la definizione del momento in cui i rischi diventano intollerabili e le azioni che i firmatari intraprenderanno a quel punto. E se le misure di mitigazione non mantengono i rischi al di sotto delle soglie, i firmatari si sono impegnati a “non sviluppare o implementare alcun modello o sistema”.

Altri firmatari includono Amazon, Antropico, Cohere, G42, Inflessione AIMetaMistral AI, Naver, Elettronica SamsungIstituto per l’innovazione tecnologica, xAI e Zhipu.ai.

Sembra tutto fantastico… ma i dettagli non sono ancora stati concretizzati. E non lo saranno fino a quando non si terrà un “AI Action Summit” all’inizio del 2025.

I firmatari del documento di Seul si sono inoltre impegnati a scambiare i loro modelli e sistemi di intelligenza artificiale all’avanguardia, condividere informazioni, investire nella sicurezza informatica e nella protezione dalle minacce interne per proteggere la tecnologia non divulgata, incoraggiare la scoperta e la segnalazione di vulnerabilità da parte di terzi, etichettando i contenuti dell’intelligenza artificiale, dando priorità alla ricerca sull’intelligenza artificiale. i rischi sociali posti dall’intelligenza artificiale e l’utilizzo dell’intelligenza artificiale a fin di bene.

OpenAI-Google-o-Microsoft-si-impegnano-a

Tra i partecipanti alla sessione figuravano i governi – il G7 più Singapore, Australia, ONU, OCSE e UE – nonché rappresentanti dell’industria.

-

NEXT ecco come osservarli e fotografarli in Francia (cielo permettendo)