La partenza di Ilya Sutskever, l’architetto delle salvaguardie dell’IA, segna la fine di un’era per OpenAI

La partenza di Ilya Sutskever, l’architetto delle salvaguardie dell’IA, segna la fine di un’era per OpenAI
La partenza di Ilya Sutskever, l’architetto delle salvaguardie dell’IA, segna la fine di un’era per OpenAI
-

Gli ossessionati dalla sicurezza dell’intelligenza artificiale abbandonano OpenAI. Il co-fondatore dell’azienda, Ilya Sutskever, ha annunciato martedì scorso, 14 maggio, la sua partenza dall’azienda stellare della Silicon Valley da quando ha lanciato ChatGPT. Dice che vuole concentrarsi su un progetto personale. È sostituito da Jakub Pachocki, ricercatore responsabile dello sviluppo di GPT-4.

Questa partenza è simbolica perché il capo scienziato di OpenAI incarnava una certa visione dell’azienda e più in generale dell’intelligenza artificiale. Ilya Sutskever è convinto che un giorno riusciremo a sviluppare l’intelligenza artificiale generale (AGI), le cui capacità sarebbero superiori a quelle umane, e che questa superintelligenza debba assolutamente essere controllata. Colui che viene descritto come un “leader spirituale” all’interno dell’azienda, è noto soprattutto per cantare regolarmente “ Senti l’AGI”. Se ne va perché crede che l’azienda sia sulla strada sbagliata? “La traiettoria dell’azienda è stata a dir poco miracolosa e sono fiducioso che OpenAI creerà un’intelligenza artificiale generale che sia sicura e vantaggiosa”ha insistito in una pubblicazione su X.

Tuttavia, qualche mese fa Ilya Sutskever sembrava dubitare della direzione presa dall’azienda. Anche per questo ha partecipato attivamente al licenziamento di Sam Altman lo scorso novembre (prima di pentirsi e desiderare il suo ritorno). Lui stesso lo ha ammesso su X, quando l’azienda attraversava il caos mediatico. Secondo L’informazione, avrebbe convinto gli altri membri del consiglio che Sam Altman stava adottando una strategia troppo commerciale, portando i prodotti sul mercato troppo rapidamente. Una direzione che non è in linea con il desiderio iniziale di Open AI: costruire a “L’intelligenza artificiale generale è benefica per tutta l’umanità. » In seguito a questo episodio, Ilya Sutskever lasciò il consiglio di amministrazione, ma rimase al suo posto in OpenAI. Sam Altman è stato reintegrato dopo una rivolta dei dipendenti contro il consiglio di amministrazione.

OpenAI: le ragioni del trionfale ritorno di Sam Altman alla guida della star dell’AI

Ilya Sutskever, il leader dei “pessimisti” dell’azienda

Per comprendere le origini della discordia dobbiamo risalire alle origini dell’azienda. Quando Ilya Sutskever ha co-creato Open AI insieme a Sam Altman ed Elon Musk, l’organizzazione era una struttura senza scopo di lucro. Il suo scopo non è trarre profitto, ma garantire la giusta direzione dello sviluppo dell’IA. Le cose sono cambiate nel 2019 quando OpenAI ha deciso di creare una società a fini di lucro, pur mantenendo il consiglio di amministrazione originale. La coesistenza di queste due intenzioni ha creato una spaccatura all’interno dei team, che si è intensificata dopo il lancio di ChatGPT a fine novembre 2022, poi la sua monetizzazione pochi mesi dopo.

Da un lato troviamo i tecno-ottimisti, guidati in particolare dal CEO Sam Altman. Questi sostengono il rapido sviluppo commerciale dell’azienda. E dall’altro “I condannatori dell’intelligenza artificiale”i pessimisti, imbevuti di controversi ideali a lungo termine, convinti che l’intelligenza artificiale rappresenti un rischio esistenziale per l’umanità e che dobbiamo garantire che non diventi dannosa, investendo di più nella sicurezza.

Poche ore dopo l’annuncio della sua partenza, Jan Leike, un’altra figura del “condanna” ha anche annunciato le sue dimissioni. Questo ingegnere ha guidato il team “Superalignment” di Open AI insieme a Sustkever. Dall’estate del 2023, questa ha il compito di garantire che i sistemi sviluppati dall’azienda siano in linea con ciò che desiderano gli esseri umani. In un post sul blog di presentazione di questa nuova squadra, OpenAI ha specificato che il 20% della potenza di calcolo dell’azienda è destinata a questo obiettivo. Lo stesso articolo riconosce inoltre che l’azienda attualmente non dispone dei mezzi tecnici per garantire che un’intelligenza artificiale “superintelligente” sia controllabile. “Gli esseri umani non saranno in grado di supervisionare in modo affidabile i sistemi di intelligenza artificiale che sono molto più intelligenti di noi, e le nostre attuali tecniche di allineamento non saranno in grado di accogliere queste superintelligenze. Abbiamo bisogno di nuove scoperte scientifiche e tecniche. »

A Parigi e nel mondo, chi è preoccupato per l’intelligenza artificiale chiede una pausa

Le partenze avvengono nel pieno dello sviluppo commerciale dell’azienda

Jan Leike sarà sostituito da John Schulman, uno dei cofondatori dell’azienda, che si schierò con Sam Altman durante il fiasco dello scorso novembre. Questi allontanamenti non significano che l’azienda stia abbandonando questi obiettivi di “superallineamento”; nessun annuncio sembra andare in questa direzione; Ma sono simbolici per molti osservatori. Soprattutto perché qualche settimana fa altri due ricercatori William Saunders (anche membro del team di superallineamento) e Daniel Kokotajlo si è anche dimesso. Sul forum del blog LessWrong (vicino agli ideali transumanisti), Daniel Kokotailo, che chiede una pausa nello sviluppo dell’intelligenza artificiale, giustifica le sue dimissioni. Discute della sua disillusione nei confronti della capacità e della volontà dell’azienda di controllare l’intelligenza artificiale generale.

Queste partenze avvengono anche in una fase chiave dello sviluppo dell’azienda. LLunedì OpenAI ha presentato una nuova versione di ChatGPT che ora può sostenere conversazioni orali e fluide con i suoi utenti. L’azienda ha anche abbassato il prezzo di accesso alla sua tecnologia.

ChatGPT si avvicina sempre più all’ideale di un’intelligenza artificiale capace di conversare come un essere umano

Da cui concludere che la tribù dei tecno-ottimisti pro-sviluppo commerciale ha definitivamente vinto contro la tribù dei pessimisti attaccati alla sicurezza? Forse. Ma non dimentichiamolo Sam Altman non è molto in disaccordo con le idee di Ilya Sutskever. Lui stesso discute regolarmente dei rischi esistenziali legati all’avvento dell’intelligenza artificiale generale. Per lui, generare profitto da ChatGPT e da altri prodotti è un modo per raggiungere l’obiettivo primario dell’azienda: creare un’IA più sicura, afferma. E sottolineare la potenziale pericolosità della tecnologia che sta sviluppando, e di cui la sua azienda è una delle poche in grado di padroneggiare, è anche un’ottima mossa di marketing…

-

PREV È una delle prime donne architetto in Belgio: l’ufficio e l’appartamento di Simone Guillissen-Hoa sono elencati su Uccle (foto)
NEXT Partendo dal nulla, costruì per 34 anni il proprio castello nel suo giardino