Il volto nascosto di OpenAI, coinvolto in molteplici polemiche

Il volto nascosto di OpenAI, coinvolto in molteplici polemiche
Il volto nascosto di OpenAI, coinvolto in molteplici polemiche
-

Sei mesi fa, ufficializzando la brusca e inaspettata destituzione di Sam Altman, reintegrato al suo posto appena cinque giorni dopo, il consiglio di amministrazione di OpenAI ha criticato il manager per non essere stato “sempre onesto”. I suoi critici più ferventi lo accusarono poi di esserlo “manipolativo e ingannevole”, secondo i commenti riportati dal Newyorkese. E anche di non fare abbastanza, nonostante la facciata, per cercare di comprendere e limitare i rischi legati al progresso esponenziale dell’intelligenza artificiale. La storia ora sembra dare loro ragione. Nelle ultime settimane diverse polemiche hanno fatto luce sul lato nascosto del progettista di ChatGPT e del suo carismatico capo, ormai libero da ogni voce discordante ai vertici della startup.

Squadra sciolta – Se ne è andato in particolare Ilya Sutskever, il direttore scientifico che incarnava un approccio più cauto allo sviluppo dell’intelligenza artificiale. Si è dimesso a metà maggio, pochi giorni dopo la presentazione di un nuovo modello, denominato GPT-4o, con funzionalità aumentate. Nel processo, il team del “super allineamento”, da lui co-guidato, è stato smantellato da OpenAI. Questa è stata lanciata nell’estate del 2023 per garantire che la tecnologia rimanesse sotto controllo, con la promessa di poter utilizzare il 20% della potenza di calcolo detenuta dalla startup. Una promessa che non è stata mantenuta. “Stava diventando sempre più difficile condurre le nostre ricerche”, così assicura Jan Leike, il secondo capo della squadra, anche lui dimesso. E per affermarlo “la sicurezza è stata relegata in secondo piano a favore dei nuovi prodotti”.

“Non denigrazione” – Almeno altri tre funzionari della sicurezza hanno lasciato l’azienda. Di fronte a questa ondata di partenze, Sam Altman ha promesso di fare di più sul campo. Un doppio discorso che ricorda quello sulla regolamentazione. Nella sua ricerca verso un’intelligenza artificiale generale, capace di apprendere e svolgere qualsiasi compito, il boss di OpenAI non sembra più volersi preoccupare di discorsi di protesta. Un desiderio illustrato anche dalle informazioni presenti sul sito Vox, che ha rivelato che l’azienda ha fatto firmare ai suoi ex dipendenti clausole di “non denigrazione”, vietando loro qualsiasi critica, pena la perdita o l’impossibilità di rivendere le azioni gratuite che facevano parte del loro compenso. Una pratica insolita che Sam Altman sostiene di aver appena scoperto e subito cancellato.

Voce imitata? – Altra polemica: la voce utilizzata nella presentazione di GPT-4o. L’attrice Scarlett Johansson crede di sì “stranamente simile” a lei. Ora minaccia di portare la start-up in tribunale, indicando di essersi rifiutata di prestare la sua voce per far parlare la modella. OpenAI nega di aver tentato di imitarlo, sostenendo di aver ingaggiato un’attrice diversi mesi prima di contattare la star. Un argomento minato dal messaggio “suo” postato da Sam Altman, in riferimento al film omonimo in cui Scarlett Johansson interpreta un’IA. I precedenti della start-up non parlano a suo favore. Presumibilmente ha utilizzato due database, poi cancellati, contenenti centinaia di migliaia di libri per addestrare il suo modello GPT. O anche video di YouTube per il suo strumento di creazione video Sora.

Per ulteriori:
– OpenAI abbandona lo sviluppo del suo ultimo modello linguistico
– Il doppio discorso di OpenAI sulla regolamentazione dell’AI


-

NEXT Valady. Jean Couet-Guichot e Gaya Wisniewski, due artisti residenti nella regione