OpenAI scioglie il team incaricato di impedire alla “super AI” di fare qualsiasi cosa

OpenAI scioglie il team incaricato di impedire alla “super AI” di fare qualsiasi cosa
OpenAI scioglie il team incaricato di impedire alla “super AI” di fare qualsiasi cosa
-

Lo scorso luglio OpenAI ha annunciato la creazione di un nuovo gruppo di ricerca dedicato a preparare l’avvento di un’intelligenza artificiale superpotente, capace di andare oltre il cervello umano. Ilya Sutskever, co-fondatore e capo scienziato di OpenAI, è stato nominato co-leader di questo nuovo team. L’azienda ha quindi promesso di dedicare il 20% della sua potenza di calcolo a questo progetto.

Gravi problemi etici lasciati senza risposta

Ma non è andata come previsto. OpenAI ha confermato la scorsa settimana lo scioglimento del suo team di “superallineamento”, in seguito alla partenza di diversi ricercatori. Compreso Ilya Sutskever, seguito dalle dimissioni dell’altro co-responsabile della squadra, Jan Leike. Il lavoro di questo team sarà ora integrato nelle altre attività di ricerca dell’azienda.

La partenza di Sutskever ha fatto notizia perché ha contribuito a fondare OpenAI nel 2015 insieme all’attuale CEO Sam Altman e ha guidato la ricerca che ha portato alla creazione di ChatGPT. Tuttavia, è stato anche uno dei quattro membri del consiglio che hanno estromesso Sam Altman lo scorso novembre. Quest’ultimo è stato reintegrato cinque giorni dopo, dopo una massiccia rivolta da parte dello staff di OpenAI e la negoziazione di un accordo che ha visto Ilya Sutskever e altri due direttori lasciare il consiglio.

Da parte sua, Jan Leike ha spiegato che la sua decisione è stata il risultato di un disaccordo con le priorità dell’azienda e della mancanza di risorse assegnate al suo team. “ Per un po’ di tempo sono stato in disaccordo con la leadership di OpenAI sulle priorità fondamentali dell’azienda, finché non abbiamo finalmente raggiunto un punto di rottura “, ha scritto. “ Negli ultimi mesi la mia squadra ha navigato controcorrente. A volte ci mancava la potenza di calcolo, il che rendeva sempre più difficile completare questa ricerca cruciale “.

Lo scioglimento del team del “superallineamento” si aggiunge a una serie di turbolenze interne verificatesi dopo la crisi di governance dello scorso novembre. Due ricercatori del team, Leopold Aschenbrenner e Pavel Izmailov, sono stati licenziati per aver divulgato segreti aziendali, riporta il sito L’informazione. Un altro membro del team, William Saunders, ha lasciato OpenAI a febbraio.

OpenAI non ha voluto commentare la partenza di Ilya Sutskever o di altri membri del team di “superallineamento”, né sul futuro del suo lavoro sui rischi a lungo termine dell’IA. La ricerca sui rischi associati a modelli più potenti sarà ora guidata da John Schulman, che co-dirige il team responsabile del perfezionamento dei modelli di intelligenza artificiale dopo la formazione.

Sebbene il team di superallineamento fosse presentato come l’unità principale che lavorava sulle questioni relative al controllo delle IA superintelligenti, non erano gli unici alle prese con come mantenere l’IA sotto controllo. OpenAI assicura il suo impegno per lo sviluppo dell’intelligenza generale artificiale (AGI)” sicuro e benefico per l’umanità “. Questo scioglimento, però, solleva interrogativi su come l’azienda intende affrontare questa sacra sfida.

? Per non perdere nessuna notizia sul Journal du Geek, iscriviti su Google News. E se ci ami, abbiamo una newsletter ogni mattina.

-

NEXT Buon affare – L’oggetto connesso di Netatmo Teste termostatiche connesse per radiatori Valvola aggiuntiva “5 stelle” a 59,99 € (-22%)