OpenAI lancia un modello AI più veloce ed economico con GPT-4o

OpenAI lancia un modello AI più veloce ed economico con GPT-4o
OpenAI lancia un modello AI più veloce ed economico con GPT-4o
-

OpenAI sta lanciando una versione più veloce ed economica del modello di intelligenza artificiale che è alla base del suo chatbot, ChatGPT, mentre la startup lavora per mantenere la propria leadership in un mercato sempre più affollato.

Lunedì, durante un evento in live streaming, OpenAI ha debuttato con GPT-4o. È una versione aggiornata del suo modello GPT-4, che ormai ha più di un anno. Il nuovo modello linguistico di grandi dimensioni, addestrato su grandi quantità di dati provenienti da Internet, sarà in grado di gestire meglio testo, audio e immagini in tempo reale. Gli aggiornamenti saranno disponibili nelle prossime settimane.

Quando viene posta una domanda verbalmente, il sistema può rispondere con una risposta audio in millisecondi, ha affermato la società, consentendo una conversazione più fluida. In una dimostrazione del modello, i ricercatori di OpenAI e il Chief Technology Officer Mira Murati hanno tenuto una conversazione con il nuovo ChatGPT usando solo la loro voce, dimostrando che lo strumento poteva rispondere. Durante la presentazione, il chatbot sembrava anche tradurre il discorso da una lingua all’altra quasi istantaneamente e ad un certo punto cantava parte di una storia su richiesta.

“Questa è la prima volta che stiamo facendo un enorme passo avanti nell’interazione e nella facilità d’uso”, ha detto Murati a Bloomberg News. “Stiamo davvero rendendo possibile la collaborazione con strumenti come ChatGPT.”

L’aggiornamento porterà una serie di funzionalità agli utenti gratuiti che in precedenza erano limitate a quelli con un abbonamento a pagamento a ChatGPT, come la possibilità di cercare sul Web risposte alle domande, parlare con il chatbot e ascoltare la risposta in varie voci e comandargli di memorizzare i dettagli che il chatbot potrà richiamare in futuro.

Il rilascio di GPT-4o è pronto a scuotere il panorama dell’intelligenza artificiale in rapida evoluzione, dove GPT-4 rimane il gold standard. Un numero crescente di startup e aziende Big Tech, tra cui Anthropic, Cohere e Google di Alphabet Inc., hanno recentemente lanciato modelli di intelligenza artificiale che, secondo loro, corrispondono o superano le prestazioni di GPT-4 in determinati benchmark.

L’annuncio di OpenAI arriva anche il giorno prima della conferenza degli sviluppatori Google I/O. Si prevede che Google, uno dei primi leader nello spazio dell’intelligenza artificiale, utilizzerà l’evento per svelare ulteriori aggiornamenti AI dopo aver gareggiato per tenere il passo con OpenAI sostenuto da Microsoft Corp.

Lunedì, in un raro post sul blog, l’amministratore delegato di OpenAI Sam Altman ha affermato che mentre la versione originale di ChatGPT dava un suggerimento su come le persone potevano usare il linguaggio per interagire con i computer, l’uso di GPT-4o sembra “visceralmente diverso”.

“Sembra l’intelligenza artificiale dei film; ed è ancora un po’ sorprendente per me che sia reale”, ha detto. “Raggiungere tempi di risposta ed espressività a livello umano si rivela un grande cambiamento.”

Due volte più veloce

Invece di fare affidamento su diversi modelli di intelligenza artificiale per elaborare input diversi, GPT-4o (la “o” sta per omni) combina voce, testo e visione in un unico modello, consentendogli di essere più veloce del suo predecessore. Ad esempio, se fornisci al sistema un prompt di immagine, può rispondere con un’immagine. L’azienda ha affermato che il nuovo modello è due volte più veloce e significativamente più efficiente.

“Quando si hanno tre modelli diversi che lavorano insieme, si introduce molta latenza nell’esperienza e si interrompe l’immersione dell’esperienza”, ha affermato Murati. “Ma quando hai un modello che ragiona nativamente su audio, testo e visione, allora elimini tutta la latenza e puoi interagire con ChatGPT più come se stessimo interagendo adesso.”

Ma il nuovo modello presenta alcuni intoppi. L’audio spesso si interrompeva mentre i ricercatori parlavano durante la loro demo. Il sistema di intelligenza artificiale ha sorpreso il pubblico anche quando, dopo aver istruito un ricercatore attraverso il processo di risoluzione di un problema di algebra, è intervenuto con una voce dal suono civettuolo: “Wow, questo è proprio il tuo outfit”.

OpenAI sta iniziando oggi a implementare le nuove funzionalità di testo e immagini di GPT-4o ad alcuni utenti paganti di ChatGPT Plus e Team e presto offrirà tali funzionalità agli utenti aziendali. L’azienda metterà a disposizione degli utenti ChatGPT Plus la nuova versione del suo assistente “modalità vocale” nelle prossime settimane.

Nell’ambito dei suoi aggiornamenti, OpenAI ha affermato che consentirà anche a chiunque di accedere al suo GPT Store, che include chatbot personalizzati realizzati dagli utenti. In precedenza era disponibile solo per i clienti paganti.

Nelle ultime settimane le speculazioni sul prossimo lancio di OpenAI sono diventate un gioco di società nella Silicon Valley. Un misterioso nuovo chatbot ha suscitato scalpore tra gli osservatori dell’intelligenza artificiale dopo essere apparso su un sito Web di benchmarking e sembrare rivaleggiare con le prestazioni di GPT-4. Altman ha offerto referenze vincenti al chatbot su X, alimentando le voci secondo cui dietro c’era la sua azienda. Lunedì un dipendente di OpenAI ha confermato sulla piattaforma social X che il chatbot misterioso era effettivamente GPT-4o.

L’azienda sta lavorando su un’ampia gamma di prodotti, tra cui tecnologia vocale e software video. OpenAI sta anche sviluppando una funzionalità di ricerca per ChatGPT, secondo quanto riportato in precedenza da Bloomberg.

Venerdì, la società ha smentito alcune voci dicendo che non lancerà a breve GPT-5, una versione molto attesa del suo modello che alcuni nel mondo tecnologico si aspettano essere radicalmente più capace degli attuali sistemi di intelligenza artificiale. Ha anche detto che l’evento di lunedì non svelerà un nuovo prodotto di ricerca, uno strumento che potrebbe competere con Google. Alla notizia le azioni di Google sono salite.

Ma una volta concluso l’evento, Altman si è affrettato a mantenere viva la speculazione. “Presto avremo più cose da condividere”, ha scritto su X.

-

PREV Le linee di swap della banca centrale migliorano la stabilità finanziaria, sostengono la posizione del dollaro USA come valuta dominante a livello globale | Notizie sul mercato dei capitali
NEXT Cosa succede a Stomy Bugsy, che festeggia il suo 52esimo compleanno?