menu
close

Google dévoile les avancées de l’IA agentique avec le projet Astra

Google a élargi son initiative d’assistant universel, le projet Astra, en y intégrant des capacités agentiques accrues permettant d’effectuer des tâches de façon autonome pour les utilisateurs. Lors de Google I/O 2025, l’entreprise a démontré comment le système peut reconnaître des objets réels via la caméra d’un téléphone intelligent et agir, par exemple en ajoutant automatiquement des événements au calendrier à partir d’invitations écrites. Google a aussi présenté de nouvelles lunettes XR avec des fonctions de réalité augmentée, dont la traduction linguistique en direct, tout en bonifiant le mode IA de la Recherche pour accéder aux courriels et permettre l’essayage virtuel de vêtements.
Google dévoile les avancées de l’IA agentique avec le projet Astra

Google accélère sa vision d’une intelligence artificielle capable d’agir de façon autonome pour ses utilisateurs, comme en témoignent les plus récentes avancées du projet Astra dévoilées lors de Google I/O 2025.

Décrit par Google comme un « agent IA universel utile au quotidien », le projet Astra a beaucoup évolué depuis sa première présentation. Le système affiche désormais des capacités agentiques plus avancées, lui permettant de comprendre le contexte et d’agir sans instructions supplémentaires. Lors d’une démonstration marquante, Google a montré comment le simple fait de pointer la caméra d’un téléphone intelligent vers une invitation écrite permet à l’IA d’ajouter automatiquement l’événement au calendrier de l’utilisateur.

« Astra peut choisir quand parler selon les événements qu’il observe », a expliqué Greg Wayne, co-responsable de l’équipe Astra, soulignant la transition d’une assistance réactive vers une implication proactive. Il s’agit d’une avancée clé dans la stratégie de Google pour maintenir sa position dominante dans la façon dont les gens accèdent à l’information et interagissent avec elle en ligne.

L’entreprise a également dévoilé de nouvelles lunettes XR Android dotées de capacités de réalité augmentée propulsées par Gemini. Développées en partenariat avec Samsung et des marques de mode telles que Gentle Monster et Warby Parker, ces lunettes offrent la traduction linguistique en direct et peuvent afficher de l’information directement dans le champ de vision de l’utilisateur. Google s’est engagé à investir jusqu’à 150 millions de dollars dans son partenariat avec Warby Parker, soulignant l’importance stratégique de cette initiative.

Par ailleurs, Google a élargi le mode IA de la Recherche, qui puise désormais dans les courriels des utilisateurs pour offrir des résultats personnalisés et introduit la fonctionnalité d’essayage virtuel de vêtements. Cette nouveauté permet aux utilisateurs de téléverser une seule photo d’eux-mêmes afin de visualiser comment des milliards de vêtements pourraient leur aller, l’IA tenant compte de la façon dont les tissus se plient et s’étirent. La fonction agentique de paiement peut même finaliser un achat lorsque le prix d’un article atteint le seuil fixé par l’utilisateur.

Ensemble, ces innovations illustrent la stratégie globale de Google visant à intégrer l’IA agentique à l’ensemble de son écosystème, ce qui pourrait transformer la façon dont les utilisateurs interagissent avec la technologie au quotidien.

Source:

Latest News