Con due nuove versioni di GPT-4, o1, un nuovo motore di ricerca e drammi interni, ChatGPT e la sua società madre OpenAI hanno avuto un secondo anno straordinario. Quali sono i prossimi passi?
ANNUNCIO
Il 30 novembre 2022, OpenAI ha lanciato il suo primo modello ChatGPT a livello globale.
Quello che inizialmente doveva essere un test per i modelli OpenAI è diventato rapidamente un sinonimo di chatbot sviluppo dell’intelligenza artificiale generativa (generazione AI).
Nel 2024, OpenAI ha lanciato diverse nuove versioni, tra cui GPT-4, che offre un’intelligenza più rapida per testo, voce e visione, e o1, una nuova serie di modelli in grado di ragionare attraverso compiti complessi nei settori della scienza, della codifica e della matematica.
Alcune settimane fa è stato lanciato OpenAI CercaGPTun’estensione del browser che fornisce “risposte rapide e tempestive” alle query degli utenti utilizzando fonti Web pertinenti, ignorando del tutto i motori di ricerca.
L’azienda ha dovuto affrontare una serie di problemi interni, con le dimissioni del suo cofondatore Ilya Sutskever, lo scioglimento del suo gruppo di ricerca sulla superintelligence e una serie di cause legali intentate da società di informazione con sede negli Stati Uniti per presunta violazione del copyright.
Cosa attende il ChatGPT di OpenAI, che tenta di raccogliere la sfida per il suo terzo anno di esistenza? Euronews Avanti fa il punto.
La prossima “gigante svolta” di OpenAI
Durante un Ask Me Anything (AMA) su Reddit il mese scorso, il fondatore di OpenAI Sam Altman e i suoi colleghi hanno fornito una panoramica delle loro priorità per il terzo anno.
Kevin Weil, product manager di OpenAI, ha dichiarato all’AMA che uno dei “grandi temi” del 2025 sarà se il ChatGPT può eseguire attività in modo autonomo.
Il signor Altman ha suggerito che potrebbe essere come un agente autonomo, che vedeva come la prossima “gigante svolta” dell’azienda.
Gli “agenti AI”, chiamati “agentic AI”, consentiranno alle aziende di progettare i modelli linguistici di grandi dimensioni (LLM) che gestiscono i loro sistemi per automatizzare le attività sul posto di lavoro.
Questa è un’impresa su cui alcuni rivali di OpenAI stanno già lavorando, come ad esempio agenti dell’IA Vertex di Google CloudLinkedIn e Microsoft. Secondo i media, il prossimo aggiornamento Gemini di Google, Project Jarvis, potrebbe includere anche agenti autonomi.
Kate Devlin, professoressa di intelligenza artificiale e società al King’s College di Londra, ha affermato che gli agenti di intelligenza artificiale già lanciati dai concorrenti di OpenAI hanno ricevuto reazioni contrastanti.
“Alcune persone ne sono molto positive e lo considerano un punto di svolta completo, perché ti consente di creare una situazione molto più vicina a quella di un assistente personale, dove puoi affidare molti dei suoi compiti all’IA”, ha detto.
“Alcune persone ne sono diffidenti e non amano l’idea di dare così tante informazioni o controllo al modello.”
Il prossimo modello di ChatGPT: cosa sappiamo finora
Alcuni prevedono che OpenAI rilascerà un modello completamente nuovo entro la fine dell’anno.
Altman ha detto al Reddit AMA in ottobre che c’erano “rilasci davvero buoni” in arrivo nel corso dell’anno, ma non ce n’era “nessuno che chiameremo ChatGPT-5”.
La priorità, ha affermato Altman, è quella di “dare priorità alla spedizione” di altri modelli, come GPT4.0 e 0.1, rilasciati quest’anno.
Alcune settimane dopo, un articolo di The Verge indica che il rilascio di Orion, ritenuto il successore di GPT-4o e o1, è previsto per dicembre per alcune aziende che lavorano a stretto contatto con OpenAI, in modo che possano creare i propri prodotti e caratteristiche.
Tadao Nagasaki, CEO di OpenAI Japan, ha annunciato a settembre un futuro modello di ChatGPT che sarà “100 volte più potente” di GPT-4, secondo i media locali.
Devlin ha affermato che è possibile che l’attività degli agenti IA possa essere inclusa in una futura versione di Orion.
Altri aggiornamenti potrebbero includere Sora, un modello AI da testo a video, che fino ad ora è stato ritardato.
Il software, ancora in fase di “perfezionamento” secondo Weil, è trapelato questa settimana.
Altman ha affermato che “vale la pena aspettare” la prossima versione di DALL-E, il software di generazione di immagini di OpenAI, ma non ha ancora un piano di rilascio.
OpenAI dovrebbe considerare la specializzazione o il ridimensionamento?
Nel 2025, OpenAI e altre società dovranno prestare particolare attenzione alle carenze generali che colpiscono il settore, ha continuato Devlin.
“Le aziende di intelligenza artificiale hanno bisogno di più calcolo, più energia e più dati”, ha affermato Devlin. “Quindi la questione è cosa possono fare con i limiti posti a questi elementi.
Un’opzione che OpenAI potrebbe prendere in considerazione è ridurre la dimensione dei LLM a modelli di piccole o medie dimensioni, che richiedono meno risorse.
Questi modelli più piccoli sarebbero in grado di “curare i dati” affinché siano più specifici o utili in aree specifiche, come la legge o la salute, ha affermato Devlin.
“Invece di limitarsi ad aumentare sempre di più, è tempo di riflettere su ciò che abbiamo ottenuto finora, perché ci sono benefici definiti… ma sappiamo che ci sono dei rischi e forse dovremmo prenderci il tempo per valutare questi rischi”, ha affermato Devlin. disse.
Abdul Sadka, direttore del Sir Peter Rigby Digital Futures Institute presso l’Aston University, ha affermato che OpenAI dovrebbe mantenere ChatGPT “generico” in modo che le singole aziende o industrie possano ottimizzarlo sulla base di set di dati specifici per i quali desiderano utilizzarlo.
Tuttavia, Sadka ha affermato che potrebbe vedere OpenAI espandersi per fornire a ChatGPT più “modalità”, come la capacità di riconoscere immagini mediche per “fornire potenzialmente rapporti diagnostici su eventuali condizioni sottostanti” che “un paziente potrebbe avere”.
Per aiutare ChatGPT a diventare più specializzato, Sadka ha affermato che le aziende che utilizzano il software potrebbero creare una base di conoscenza esterna che l’intelligenza artificiale non ha mai visto prima al fine di “ridurre la probabilità di allucinazioni”, un termine usato per spiegare le ipotetiche risposte dell’intelligenza artificiale alle domande che non fa. non riconoscere.