I nuovi modelli di intelligenza artificiale di Apple potrebbero trovare posto nell’iPhone

I nuovi modelli di intelligenza artificiale di Apple potrebbero trovare posto nell’iPhone
Descriptive text here
-

In attesa di funzioni pubbliche intrise di intelligenza artificiale generativa, Apple sta lavorando sui motori, cioè sui modelli di intelligenza artificiale che saranno al centro della strategia del produttore. Quest’ultimo offre così alla comunità open Source una nuova famiglia di grandi modelli linguistici OpenELM che hanno la particolarità di operare localmente.

La WWDC, che inizierà il 10 giugno, non segnerà il debutto dell’intelligenza artificiale generativa in Apple, anche se si prevede che il produttore svelerà nuove funzionalità AI in iOS 18. L’azienda Apple sviluppa questa tecnologia da mesi, un work in progress allo scoperto poiché gli specialisti Apple pubblicano regolarmente le loro ricerche.

iPhone 15 al miglior prezzo Prezzo base: 969€

Vedi più offerte

Intelligenza artificiale che rispetta la riservatezza

L’azienda ha così pubblicato online su Hugging Face, punto d’incontro della comunità di sviluppatori di intelligenza artificiale, una famiglia di modelli linguistici di grandi dimensioni (LLM) raggruppati sotto il nome OpenELM, per “Open-Source Efficient Language Models”. Perché sì, è assolutamente possibile utilizzare questo codice così com’è o modificarlo, anche per uso commerciale secondo la licenza.

In totale ci sono 8 modelli; quattro sono pre-addestrati, cioè addestrati su dataset di grandi dimensioni per il successivo sviluppo di modelli più specializzati. Gli altri quattro, modelli ottimizzati per le istruzioni, sono stati pre-addestrati e sono stati sottoposti a formazione aggiuntiva per rispondere a domande specifiche.

Questi modelli OpenELM coprono diversi volumi di parametri, che vanno da 270 milioni a 3 miliardi di parametri, in altre parole il numero di connessioni tra neuroni artificiali in un LLM. Ogni parametro può essere visto come una sorta di “peso” che influenza il modo in cui le informazioni vengono elaborate dal modello. Potresti pensare che più parametri ci sono, meglio è, ma va notato che il volume non sempre garantisce le migliori prestazioni; anche altri fattori come la qualità dei dati di addestramento e l’efficienza dell’algoritmo giocano un ruolo cruciale.

La particolarità di questi modelli è che funzionano tutti localmente, cioè sui dispositivi. Apple ha effettuato dei benchmark sui computer (Mac e PC), e tutto fa pensare che possano dare il meglio di sé anche in uno smartphone. Questo ricorda il Gemini Nano di Google o il nuovo modello Phi-3 Mini di Microsoft (3,8 miliardi di parametri).

Apple dovrebbe favorire l’elaborazione locale delle attività di intelligenza artificiale per questioni di riservatezza dei dati. Non è impossibile pensare che questi modelli OpenEML verranno utilizzati!

-

NEXT I 7 consigli di Apple per caricare correttamente il tuo iPhone