Apple presenta un modello molto più veloce di CLIP per identificare il contenuto delle immagini

Apple presenta un modello molto più veloce di CLIP per identificare il contenuto delle immagini
Descriptive text here
-

Apple continua a preparare il terreno per una grande ondata di intelligenza artificiale, con la pubblicazione di nuove ricerche in questo settore. Questa volta, i ricercatori sul campo hanno sviluppato un modello di classificazione delle immagini neurali che compete con CLIP di OpenAI, uno strumento in grado di identificare cosa contiene effettivamente una foto. CatLIP viene annunciato come significativamente più veloce: 2,7 volte più veloce di CLIP per essere precisi, il che è interessante perché la velocità di esecuzione era proprio un punto debole del modello OpenAI.

Immagine della mela.

Grazie a questo guadagno, potremmo considerare di avere la precisione del CLIP ad una velocità sufficientemente aumentata per offrire risultati in tempo reale o poco distanti. In confronto, gli strumenti basati sul modello OpenAI necessitano di un tempo di analisi iniziale piuttosto lungo e di molte risorse per raggiungere questo obiettivo.

Queryable: il motore di ricerca intelligente che Apple dovrebbe integrare in Foto

I risultati evidenziati da Apple suggeriscono che la qualità dell’analisi viene mantenuta nonostante la maggiore velocità di elaborazione. Da lì a pensare che Foto possa integrare CatLIP in iOS 18 e macOS 15? Forse a giugno avremo la risposta…

-

PREV Dove vedere la serie HPI in streaming?
NEXT La società indiana Reliance rinnova la sua richiesta per una licenza statunitense per importare petrolio venezuelano, dicono fonti