Sedici società di intelligenza artificiale assumono nuovi impegni in materia di sicurezza

Sedici società di intelligenza artificiale assumono nuovi impegni in materia di sicurezza
Sedici società di intelligenza artificiale assumono nuovi impegni in materia di sicurezza
-
Il logo dell’applicazione ChatGPT sviluppata da OpenAI, 23 novembre 2023 a Francoforte (Kirill KUDRYAVTSEV/AFP)

Sedici delle principali società mondiali di intelligenza artificiale (AI), i cui rappresentanti si sono incontrati martedì a Seul, hanno assunto nuovi impegni per garantire lo sviluppo sicuro di questa scienza, ha annunciato il governo britannico.

“Questi impegni garantiscono che le principali aziende mondiali nel campo dell’intelligenza artificiale siano trasparenti e responsabili dei loro piani per sviluppare un’intelligenza artificiale sicura”, ha affermato il primo ministro britannico Rishi Sunak in una dichiarazione rilasciata dal Ministero.

L’accordo, siglato in particolare da OpenAI (ChatGPT), Google DeepMind e Anthropic, fa tesoro del consenso raggiunto durante il primo “summit” globale sulla sicurezza dell’IA, lo scorso anno a Bletchley Park, nel Regno Unito.

Questo secondo “vertice” a Seul è organizzato congiuntamente dai governi sudcoreano e britannico.

Le aziende di intelligenza artificiale che non hanno ancora reso pubblico il modo in cui valutano la sicurezza delle tecnologie che sviluppano si impegnano a farlo.

Rischi “intollerabili”.

Ciò include determinare quali rischi sono “ritenuti intollerabili” e cosa faranno le aziende per garantire che queste soglie non vengano superate, spiega il comunicato stampa.

Nelle circostanze più estreme, le aziende si impegnano anche a “non sviluppare o implementare un modello o un sistema” se le misure di mitigazione non consentono di mantenere i rischi al di sotto delle soglie fissate. Queste soglie saranno definite prima del prossimo “vertice” sull’IA. nel 2025 in Francia.

Tra le aziende che accettano queste regole di sicurezza ci sono anche i colossi tecnologici americani Microsoft, Amazon, IBM e Meta, la francese Mistral AI e la cinese Zhipu.ai.

Questi annunci arrivano mentre i 27 paesi membri dell’Unione Europea hanno approvato definitivamente martedì una legislazione senza precedenti a livello globale per regolamentare i sistemi di intelligenza artificiale (AI) al fine di promuovere l’innovazione in Europa limitando al contempo possibili abusi.

Questa legislazione, che si applicherà principalmente a partire dal 2026, adotta un approccio “basato sul rischio” e impone vincoli ai diversi sistemi di intelligenza artificiale proporzionati ai pericoli che rappresentano per la società.

Il successo travolgente di ChatGPT poco dopo il suo rilascio nel 2022 ha scatenato una corsa nel campo dell’intelligenza artificiale generativa, con le aziende tecnologiche di tutto il mondo che investono miliardi di dollari nello sviluppo dei propri modelli.

I modelli di intelligenza artificiale generativa possono produrre testo, foto, audio e persino video da semplici istruzioni. I loro sostenitori li presentano come una svolta che migliorerà la vita dei cittadini e delle imprese di tutto il mondo.

Ma i difensori dei diritti umani e i governi temono anche il loro abuso in un’ampia gamma di situazioni, incluso la manipolazione degli elettori attraverso notizie false o foto e video “deepfake” di leader politici.

Molti chiedono che vengano stabiliti standard internazionali per governare lo sviluppo e l’uso dell’intelligenza artificiale.

“Il campo della sicurezza dell’intelligenza artificiale si sta evolvendo rapidamente e siamo particolarmente lieti di sostenere gli impegni” presi in questo vertice in questo settore, ha affermato martedì Anna Makanju, vicepresidente di OpenAI per gli affari globali, in un comunicato stampa che annuncia i nuovi impegni .

Accusata dall’attrice Scarlett Johansson di aver copiato volontariamente e a sua insaputa la sua voce, la società aveva annunciato poco prima che avrebbe cambiato tono, pochi giorni dopo lo scioglimento del suo team incaricato di mitigare i possibili rischi a lungo termine i pericoli di un’intelligenza artificiale troppo intelligente.

L’annuncio è stato segnato dalla partenza di uno dei cofondatori dell’azienda, Ilya Sutskever, nonché del capo del team, Jan Leike.

Oltre alla sicurezza, il “vertice” di Seul esaminerà come i governi possono contribuire a promuovere l’innovazione (compresa la ricerca sull’intelligenza artificiale nelle università) e come la tecnologia potrebbe aiutare a risolvere problemi come il cambiamento climatico e la povertà.

L’incontro di due giorni di Seul si svolgerà in parte virtualmente, con alcune sessioni tenute a porte chiuse mentre altre sono aperte al pubblico nella capitale sudcoreana.

Più tardi, il presidente coreano Yoon Suk Yeol e Rishi Sunak co-presiedono una sessione virtuale.

-

PREV Gabriel Attal dà il primo posto al potere d’acquisto nel programma di maggioranza
NEXT Giornalisti ucraini arrabbiati per l’accreditamento di tre media di Mosca