Apple ha notevolmente ampliato le sue capacità di intelligenza artificiale con una nuova ondata di funzionalità Apple Intelligence che trasformeranno il modo in cui gli utenti interagiscono con i propri dispositivi.
Al centro dell’aggiornamento c’è l’intelligenza visiva, che estende le capacità dell’IA ai contenuti visualizzati sugli schermi degli iPhone. Questa tecnologia consente agli utenti di cercare e agire su qualsiasi cosa stiano visualizzando tra le app. Gli utenti possono porre domande a ChatGPT sui contenuti a schermo, cercare articoli simili tramite Google o Etsy e selezionare oggetti specifici per trovare prodotti simili online.
L’intelligenza visiva riconosce anche quando gli utenti stanno visualizzando informazioni su eventi e può suggerire di aggiungerli al calendario, estraendo automaticamente dettagli rilevanti come data, ora e luogo. Queste funzionalità sono accessibili tramite gli stessi pulsanti utilizzati per gli screenshot, offrendo la possibilità di salvare, condividere o esplorare con l’intelligenza visiva.
Per gli appassionati di fitness, Apple Watch introduce Workout Buddy, un’esperienza senza precedenti alimentata da Apple Intelligence. Questa funzione analizza i dati dell’allenamento in corso insieme alla cronologia fitness per generare approfondimenti personalizzati e motivazionali in tempo reale. Utilizzando metriche come frequenza cardiaca, ritmo, distanza e avanzamento degli anelli Attività, un nuovo modello text-to-speech trasmette questi feedback tramite una voce dinamica creata a partire dalle registrazioni dei trainer Fitness+. Workout Buddy elabora tutti i dati in modo privato e sicuro, richiedendo cuffie Bluetooth e un iPhone compatibile con Apple Intelligence nelle vicinanze.
Anche gli sviluppatori non sono stati trascurati. Il nuovo framework Foundation Models si aggiunge a una suite di strumenti che permette di sfruttare l’intelligenza on-device, mentre Xcode 26 utilizza modelli linguistici di grandi dimensioni come ChatGPT. Queste novità si affiancano all’ampio set di oltre 250.000 API di Apple, che consentono l’integrazione con funzionalità hardware e software nei campi del machine learning, realtà aumentata, salute e fitness, spatial computing e grafica ad alte prestazioni.
Tutte queste funzionalità sono disponibili per i test tramite l’Apple Developer Program già da oggi, con una beta pubblica in arrivo il prossimo mese tramite l’Apple Beta Software Program. Il rilascio completo è previsto per l’autunno e supporterà tutti i modelli di iPhone 16, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro), oltre a iPad e Mac con chip M1 e successivi.
Inizialmente, Apple Intelligence supporterà inglese, francese, tedesco, italiano, portoghese (Brasile), spagnolo, giapponese, coreano e cinese (semplificato), con altre lingue in arrivo entro la fine dell’anno: danese, olandese, norvegese, portoghese (Portogallo), svedese, turco, cinese (tradizionale) e vietnamita. Alcune funzionalità potrebbero avere disponibilità limitata a causa di normative e leggi regionali.
Questa espansione delle capacità AI nell’ecosistema Apple rappresenta la spinta più ambiziosa dell’azienda nel campo dell’intelligenza artificiale, portando funzionalità avanzate direttamente a centinaia di milioni di utenti in tutto il mondo.