DayFR Italian

ChatGPT e OpenAI pensano in cinese e nessuno capisce il perché

-

Un fenomeno intrigante, ma non isolato

Diversi utenti hanno riferito che O1, nel bel mezzo di un processo di ragionamento, sembrava strutturare parti delle sue risposte in cinese, persiano o hindi prima di fornire la risposta finale in inglese. Su X (ex Twitter), un utente ha anche osservato: “Perché O1 ha iniziato improvvisamente a pensare in cinese?” »

Questo fenomeno non è isolato: alcuni ricercatori e professionisti dell’intelligenza artificiale lo vedono come una conseguenza dei pregiudizi introdotti dai dati e dai metodi di addestramento dei modelli linguistici.

Ipotesi sull’emergenza linguistica

L’influenza dei dati di addestramento e dell’etichettatura

Secondo Clément Delangue, CEO di Hugging Face, e Ted Xiao, ricercatore di Google DeepMind, l’origine di questo comportamento potrebbe essere attribuita ai dati utilizzati per addestrare il modello. OpenAI, come altri laboratori di intelligenza artificiale, esternalizza parte dell’etichettatura dei dati ad aziende in Cina o in altri paesi in cui la manodopera specializzata è abbondante e conveniente. Queste etichette – annotazioni che aiutano il modello a comprendere e classificare le informazioni – potrebbero quindi comportare pregiudizi linguistici intrinseci.

Ted Xiao sottolinea inoltre che alcuni dati complessi, soprattutto in matematica e scienze, spesso provengono da fonti scritte o tradotte in cinese. Ciò potrebbe spingere il modello a privilegiare questo linguaggio per ragionare in questi ambiti.

Efficienza linguistica e strutturazione delle idee

Altri esperti avanzano una teoria diversa. Secondo il ricercatore di intelligenza artificiale Matthew Guzdial, O1 non distingue le lingue come farebbe un essere umano. Elabora le informazioni in termini di token (unità di testo) e può “scegliere” un linguaggio che ottimizzi il suo processo di ragionamento. In effetti, alcune lingue, come il cinese, consentono di trasmettere idee complesse con meno caratteri, il che potrebbe essere percepito come più efficace dal modello.

Un problema di trasparenza

Luca Soldaini, ricercatore presso l’Allen Institute for AI, si lamenta di ciò il funzionamento dei modelli di grandi dimensioni rimane opacorendendo impossibile un’analisi approfondita delle cause di questo fenomeno. Egli sottolinea: “Questo è ancora un altro esempio del perché la trasparenza è fondamentale nella progettazione dei sistemi di intelligenza artificiale. »

Un contesto turbolento per OpenAI

OpenAI, leader nel campo dell’intelligenza artificiale, dovrà affrontare grandi sfide nel 2024 e nel 2025. Se le sue innovazioni come ChatGPT, DALL-E e ora O1 continuano a catturare l’attenzione globale, gli ostacoli si accumulano:

Crescente pressione finanziaria

Con un fatturato stimato di 3,7 miliardi di dollari nel 2024ma una perdita prevista di 5 miliardi di dollariOpenAI si trova ad affrontare una pressione finanziaria senza precedenti. L’azienda punta ad un fatturato ambizioso di 11,6 miliardi di dollari nel 2025ma questa dipendenza dalla redditività ha costretto l’organizzazione a spostarsi verso lo status di for-profit, una mossa che ha attirato critiche.

Critiche e polemiche

Accuse di violazione del copyright : otto importanti giornali statunitensi hanno citato in giudizio OpenAI per aver utilizzato contenuti protetti da copyright per addestrare i suoi modelli senza autorizzazione.
Partenze strategiche : Il Chief Technology Officer Mira Murati ha lasciato il suo incarico, segnando una perdita significativa per l’azienda.
Problemi di affidabilità : Modelli come ChatGPT continuano a generare risposte parziali o errate, danneggiando la reputazione dell’azienda.

Cosa rivela il caso O1?

Il comportamento linguistico di O1 evidenzia questioni più ampie relative alla progettazione e alla trasparenza dei modelli di intelligenza artificiale:

Gestione dei pregiudizi : Sia attraverso l’etichettatura che attraverso i dati di training, i pregiudizi culturali e linguistici influenzano il ragionamento dei modelli.
La necessità di trasparenza : Utenti e ricercatori richiedono informazioni chiare sui processi interni dei modelli per comprendere meglio le loro decisioni e il loro funzionamento.
I limiti dell’universalità dei modelli : Sebbene siano presentati come capaci di gestire più lingue e contesti, modelli di grandi dimensioni come O1 mostrano che i loro risultati dipendono fortemente dalla loro formazione.

Conclusione: un’opportunità di sviluppo

Il fenomeno linguistico osservato con O1 non è solo un’anomalia tecnica. Solleva questioni fondamentali sull’etica, sulla progettazione e sull’impatto dei modelli di intelligenza artificiale. Per OpenAI questa è un’opportunità per rafforzare la propria comunicazione e migliorare il design dei propri strumenti.

Il modo in cui l’azienda gestisce queste sfide, inclusa la promozione di una maggiore trasparenza e la correzione dei pregiudizi, potrebbe determinare il suo futuro in un settore sempre più competitivo. Ma soprattutto dovrà rispondere a una domanda cruciale: come garantire che l’intelligenza artificiale rimanga al servizio degli utenti, senza compromettere integrità e affidabilità?

Related News :