Gli occhiali connessi Ray-Ban di Meta ottengono 4 funzioni interessanti…

Gli occhiali connessi Ray-Ban di Meta ottengono 4 funzioni interessanti…
Gli occhiali connessi Ray-Ban di Meta ottengono 4 funzioni interessanti…
-

All’evento Meta Connect della scorsa settimana, Mark Zuckerberg ha mostrato le nuove funzionalità degli occhiali intelligenti Meta Ray-Ban di punta dell’azienda. Definendo gli occhiali il “fattore di forma perfetto per l’intelligenza artificiale”, i miglioramenti sono incentrati sull’intelligenza artificiale multimodale. L’idea è quella di fornire un’interazione più naturale, simile a quella che abbiamo già visto con Gemini e ChatGPT 4o di Google.

Ma al di là dei miglioramenti nella comunicazione, l’intelligenza artificiale multimodale degli occhiali consente nuove interessanti interazioni, dando loro la capacità di “vedere” ciò che vedi e “sentire” ciò che senti, con un contesto meno necessario da parte dell’utente.

Una delle caratteristiche più utili è la capacità degli occhiali di “ricordare” le cose per te. Come ? Prendere nota degli indicatori visivi per classificarli in seguito.

Ecco uno sguardo a tutto ciò che arriverà presto.

1. Traduzioni al volo

Meta

Gli occhiali Meta Ray-Ban saranno dotati di una funzione di traduzione progettata per funzionare in tempo reale (o almeno quasi) con spagnolo, francese e italiano. Durante l’evento, Zuckerberg ha dimostrato una conversazione con un madrelingua spagnolo. E gli occhiali traducevano ciò che ciascun oratore diceva e ascoltava dallo spagnolo all’inglese in pochi secondi.

Naturalmente, non tutte le conversazioni coinvolgono entrambi gli utenti che indossano gli occhiali intelligenti. Ecco perché l’azienda consente agli utenti di sincronizzare la propria produzione con l’app complementare Meta, affidandosi allo smartphone per visualizzare le traduzioni.

Un nuovo strumento di traduzione AI per Instagram Reels

Oltre alle nuove funzionalità degli occhiali, Meta ha anche introdotto il suo nuovo strumento di traduzione AI per Instagram Reels, che traduce automaticamente l’audio in inglese e quindi utilizza l’intelligenza artificiale per sincronizzare i movimenti della bocca di chi parla con la traduzione in inglese. Il risultato, almeno nella demo, è stato un video in inglese dall’aspetto naturale che utilizzava il campione della voce dell’oratore.

Per ora, questa funzionalità è nelle sue fasi iniziali. Attualmente è disponibile solo in spagnolo su Instagram e Facebook.

2. Gli occhiali ora possono “ricordare” le cose

Meta Connect: Meta Ray Ban Meta

La demo ha anche messo in mostra la “memoria fotografica” degli occhiali. E questo risolvendo un problema che tutti abbiamo riscontrato. Si tratta di ricordare dove hai parcheggiato. L’utente ha guardato il numero del parcheggio e ha detto semplicemente: “Ricorda dove ho parcheggiato”.

Successivamente, alla domanda agli occhiali “Ehi Meta, dove ho parcheggiato?”, l’IA ha risposto con il numero del parcheggio.

Questo tipo di “classifica” della conoscenza al volo è un esempio di come utilizzare ciò che l’intelligenza artificiale sa fare meglio. Vale a dire richiamare dati specifici in un contesto predefinito.

Altri esempi di come utilizzare questa funzionalità sono facili da immaginare, dalle liste della spesa alle date degli eventi ai numeri di telefono.

3. Multimodalità di livello superiore

In precedenza, dovevi dire “Ehi Meta” per richiamare l’IA degli occhiali. Quindi attendi la richiesta per iniziare la query. Ora puoi semplicemente porre domande agli occhiali in tempo reale, anche quando sei in movimento. E questo sfruttando l’intelligenza artificiale multimodale degli occhiali per analizzare ciò che vedi o senti.

  • Una demo mostrava un utente che sbucciava un avocado e chiedeva “Cosa posso fare con questo?”, senza specificare a cosa si riferisse “questo”.
  • Un’altra demo mostrava un utente che frugava in un armadio e tirava fuori diversi capi di abbigliamento contemporaneamente, chiedendo all’intelligenza artificiale di aiutarlo a creare un outfit in tempo reale.

Come altri popolari assistenti vocali, è sempre possibile interrompere Meta AI durante una conversazione.

Nella stessa linea, le capacità multimodali degli occhiali vanno oltre la semplice analisi statica di ciò che si vede. Gli occhiali riconoscono cose come URL, numeri di telefono che puoi chiamare o codici QR che puoi scansionare immediatamente con gli occhiali.

4. partenariat Be My Eyes

Infine, Zuckerberg ha dimostrato una nuova ed elegante funzionalità di accessibilità degli occhiali. Le persone non vedenti e ipovedenti possono utilizzare gli occhiali per trasmettere ciò che vedono a una persona dall’altra parte, che può spiegare in dettaglio cosa sta guardando.

Be My Eyes è un programma già in produzione. La dimostrazione mostrava una donna che guardava un invito a una festa con date e orari. Questa tecnologia potrebbe essere utilizzata dalla lettura dei segnali stradali alla spesa.

Infine, Zuck ha presentato alcuni nuovi modelli, tra cui nuovi Ray-Ban in edizione limitata con montature chiare e trasparenti, oltre all’introduzione di nuove lenti di transizione, che permettono di raddoppiarne l’utilizzo come occhiali da sole e da vista. di vista.

I Meta Ray-Ban vengono venduti a partire da 300 euro e sono disponibili in nove diversi modelli di montatura, oltre ad una nuova edizione limitata trasparente.

-

PREV Giornate francesi – Il purificatore d’aria Philips Serie 8000 (AMF870/15) “5 stelle” a € 429,99
NEXT Gli anelli connessi sostituiranno i nostri orologi?