Apple a considérablement élargi ses capacités en intelligence artificielle avec une nouvelle vague de fonctionnalités Apple Intelligence qui transformeront la façon dont les utilisateurs interagissent avec leurs appareils.
Au cœur de cette mise à jour se trouve l’intelligence visuelle, qui étend les capacités de l’IA au contenu affiché sur les écrans d’iPhone. Cette technologie permet aux utilisateurs de rechercher et d’agir sur tout ce qu’ils voient dans leurs applications. Ils peuvent poser des questions à ChatGPT sur le contenu à l’écran, rechercher des articles similaires sur Google ou Etsy, et surligner des objets précis pour trouver des produits semblables en ligne.
L’intelligence visuelle reconnaît aussi lorsqu’un utilisateur consulte des informations sur un événement et peut suggérer de l’ajouter à son calendrier, en extrayant automatiquement les détails pertinents comme la date, l’heure et le lieu. Ces fonctionnalités sont accessibles via les mêmes boutons que pour les captures d’écran, offrant la possibilité d’enregistrer, de partager ou d’explorer avec l’intelligence visuelle.
Pour les adeptes du fitness, l’Apple Watch accueille Workout Buddy, une expérience inédite propulsée par Apple Intelligence. Cette fonctionnalité analyse les données d’entraînement en temps réel ainsi que l’historique de mise en forme pour générer des conseils personnalisés et motivants. Grâce à des indicateurs comme la fréquence cardiaque, l’allure, la distance et la progression des anneaux d’activité, un nouveau modèle de synthèse vocale livre ces conseils via une voix dynamique créée à partir d’enregistrements de coachs Fitness+. Workout Buddy traite toutes les données de façon privée et sécurisée, nécessitant des écouteurs Bluetooth et un iPhone compatible Apple Intelligence à proximité.
Les développeurs ne sont pas en reste. Le nouveau cadre Foundation Models s’ajoute à une suite d’outils leur permettant de tirer parti de l’intelligence sur l’appareil, tandis que Xcode 26 exploite des modèles de langage avancés comme ChatGPT. Ces ajouts complètent l’ensemble de plus de 250 000 API d’Apple qui facilitent l’intégration avec les fonctions matérielles et logicielles en apprentissage automatique, réalité augmentée, santé et mise en forme, informatique spatiale et graphismes haute performance.
Toutes ces fonctionnalités sont offertes dès aujourd’hui pour des tests via le programme Apple Developer, avec une bêta publique prévue le mois prochain grâce au programme Apple Beta Software. Le lancement complet est prévu pour cet automne, et sera compatible avec tous les modèles d’iPhone 16, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro), ainsi que les iPad et Mac dotés d’une puce M1 ou plus récente.
Au départ, Apple Intelligence prendra en charge l’anglais, le français, l’allemand, l’italien, le portugais (Brésil), l’espagnol, le japonais, le coréen et le chinois (simplifié), avec d’autres langues prévues d’ici la fin de l’année : danois, néerlandais, norvégien, portugais (Portugal), suédois, turc, chinois (traditionnel) et vietnamien. Certaines fonctionnalités pourraient être limitées en raison de lois et règlements régionaux.
Cette expansion des capacités d’IA à travers l’écosystème Apple représente la plus ambitieuse incursion de l’entreprise dans l’intelligence artificielle, offrant des fonctionnalités avancées directement à des centaines de millions d’utilisateurs partout dans le monde.