Secondo l’analista Ming-Chi Kuo, che conferma una voce già diffusa diverse settimane fa, i prossimi AirPods Pro di Apple presenteranno, come minimo, una fotocamera a infrarossi. In definitiva, l’avvento dei moduli fotografici sulle cuffie sembra inevitabile.
Una fotocamera nell’auricolare, a cosa serve? A prima vista, le voci secondo cui i futuri AirPods Pro potranno vedere il mondo non hanno alcun senso. Perché Apple dovrebbe aggiungere un modulo fotografico in un auricolare, soprattutto con i vincoli di ingombro e autonomia. Dal 1 luglio, data di pubblicazione di un post sul blog dell’analista Ming-Chi Kuo, molti media hanno trasmesso questa voce divertente. Tutti si chiedono perché Apple dovrebbe andare in questa direzione.
Tuttavia, questa idea è tutt’altro che stupida. Nell’epoca dell’avvento dell’intelligenza artificiale generativa, con la comparsa di numerosi gadget dedicati all’utilizzo di questa intelligenza artificiale, le cuffie possono distinguersi dalla massa. Resta da vedere in quali forme.
Innanzitutto, le telecamere a infrarossi?
Secondo Ming-Chi Kuo, Apple vorrebbe produrre moduli fotocamera dedicati alle sue cuffie wireless di fascia alta nel 2026.
I futuri AirPods Pro, probabilmente previsti tra il 2026 e il 2027, utilizzerebbero sensori a infrarossi per vedere il mondo, presumibilmente in bianco e nero. Questa tecnologia consentirebbe ad Apple di migliorare l’esperienza audio (le fotocamere indicherebbero agli AirPods la direzione in cui stai guardando), permettendoti allo stesso tempo di controllare la tua musica con i gesti.
Come su Apple Vision Pro, diventerebbe possibile fare cose toccando le dita, magari anche controllando gli altri dispositivi.
Perché gli infrarossi? Senza dubbio per due motivi. Questa tecnologia ti consente di vedere al buio e consuma meno energia rispetto a una tradizionale fotocamera RGB. La batteria è un aspetto importante per le cuffie, mentre gli AirPods sono piccoli dispositivi progettati per funzionare per diverse ore senza ricarica. Interessante è anche la questione della trasmissione dati telefonica. Gli ascoltatori possono archiviare immagini e gestire l’elaborazione dei dati localmente? Oppure dovranno costantemente fare affidamento su un iPhone o un Mac per funzionare?
In secondo luogo, come non pensare all’IA?
Entro il 2026, si prevede che un altro settore assumerà un ruolo considerevole nelle nostre vite: l’intelligenza artificiale generativa. Gli occhiali Meta e Ray-Ban, capaci di rispondere a domande difficili utilizzando un modello linguistico sofisticato, introducono un interessante precedente nel mercato dell’eyewear. Indossabili. Dall’inizio dell’anno, chi lo indossa può chiedere loro cose come “Guarda e dimmi cos’è questo monumento”. Allora risponderà un modello di riconoscimento delle immagini, come una guida turistica integrata nel volto.
Questa prospettiva è interessante per le cuffie che, indipendentemente dalla marca, già oggi integrano un assistente vocale. “Ehi Siri” sugli AirPods, “OK Google” o “Alexa” sui concorrenti… Cuffie in grado di rispondere a domande pratiche, dirti se stai andando nella direzione sbagliata o tradurre i menu dei ristoranti hanno un senso. Resta, ancora una volta, la questione dell’autonomia.
Un’altra domanda: è sufficiente una telecamera a infrarossi per questo tipo di identificazione visiva? Oppure i brand dovranno fare affidamento su sensori fotografici più tradizionali? In ogni caso, nell’era dell’intelligenza artificiale e dell’iperconnessione, le fotocamere integrate nei prodotti indossati hanno più senso che mai. Non sarebbe sorprendente vedere altri marchi lanciarsi molto prima di Apple, in attesa che il marchio perfezioni la sua strategia di intelligenza artificiale con Apple Intelligence, prevista per questo autunno (tranne che in Europa).
Iscriviti a Numerama su Google News per non perdere nessuna novità!