Fino ad ora, i sistemi di intelligenza artificiale hanno generato contenuti come testo, immagini e video. Ora Google vuole fare un ulteriore passo avanti con una nuova generazione del suo sistema Gemini: in futuro l’intelligenza artificiale dovrà svolgere determinati compiti in modo indipendente come assistente.
Google lo ha annunciato mercoledì in occasione dell’anniversario della prima première di Gemini a Mountain View. È ipotizzabile che l'”agente AI” possa, ad esempio, trovare i componenti per un progetto hobbistico nei negozi online e inserirli autonomamente nel carrello. Tuttavia, il processo di ordinazione vero e proprio verrà comunque eseguito dall’utente.
“L’intelligenza artificiale dovrebbe diventare più utile”
Il CEO di Google Sundar Pichai ha affermato che la prima generazione di Gemini 1.0 riguardava l’organizzazione e la comprensione delle informazioni. “Gemini 2.0 significa essere molto più utili.”
I nuovi assistenti IA fanno parte del “Progetto Mariner”, implementato con la nuova generazione di IA. Gemini 2.0 è stato sviluppato per l’era degli agenti, ha affermato il manager di Google Tulsee Doshi.
Il sistema è in grado di utilizzare strumenti intelligenti e può accedere direttamente ai prodotti Google come la ricerca. Può persino eseguire il codice del programma. “Queste capacità si traducono in agenti in grado di pensare, ricordare, pianificare e persino agire per conto degli utenti.”
Facendo clic come un essere umano
“Mariner” si comporta quindi esattamente come farebbero gli utenti umani in un browser, ha sottolineato Doshi. “Può fare clic, digitare e scorrere, proprio come te come utente.” Tuttavia, il sistema identifica anche una serie di attività che l’agente non deve eseguire per conto di un utente.
“Un buon esempio di ciò è che Mariner non completa un acquisto senza prima chiedere all’utente se desidera davvero farlo.” “Mariner” verrà prima testato con soggetti affidabili prima di essere reso disponibile al grande pubblico.
Nuovi occhiali AI
Con il “Project Astra” Google sta ora portando avanti un progetto di ricerca basato su Gemini 2.0 per esplorare l’ambiente, che è stato presentato per la prima volta alla conferenza degli sviluppatori Google I/O la scorsa primavera.
In futuro gli utenti riceveranno informazioni utili non solo sullo smartphone, ma anche sugli occhiali intelligenti. Sono simili agli occhiali Ray-Ban del gruppo Facebook Meta, che riconoscono ad esempio edifici o opere d’arte o aiutano in cucina.
Per gli sviluppatori di software che offrono le proprie soluzioni basate sull’intelligenza artificiale di Google, la variante del sistema Gemini Flash è particolarmente rilevante. Può funzionare non solo su computer di grandi dimensioni nei data center, ma anche localmente su personal computer o alcuni modelli di smartphone. Mercoledì Google ha presentato Gemini Flash 2.0 che, secondo l’azienda, offre prestazioni migliorate con tempi di risposta altrettanto rapidi.