menu
close

Google dévoile Gemini Agentic pour révolutionner les tâches complexes

Lors de la Google I/O 2025, Google a annoncé le mode Agent pour son IA Gemini, permettant l’exécution autonome de tâches grâce à des capacités de navigation web propulsées par Project Mariner. Cette nouvelle fonctionnalité permettra à Gemini d’accomplir des tâches complexes comme la recherche d’appartements sur des sites tels que Zillow, de la sélection des annonces à la prise de rendez-vous pour des visites. Google a également révélé la compatibilité entre son API/SDK Gemini et le Model Context Protocol d’Anthropic, signalant une collaboration croissante du secteur sur les standards des agents intelligents.
Google dévoile Gemini Agentic pour révolutionner les tâches complexes

Google fait un bond majeur dans l’univers des agents intelligents avec l’introduction du mode Agent pour sa plateforme Gemini, annoncée lors de la conférence développeurs Google I/O 2025 le 20 mai.

Propulsé par la technologie Project Mariner de Google, le mode Agent transforme Gemini en un assistant autonome capable d’exécuter des tâches complexes et multi-étapes avec un minimum d’intervention humaine. Cette fonctionnalité permet à Gemini de naviguer sur des sites web, d’interpréter des éléments visuels et textuels, et d’agir au nom des utilisateurs.

« Imaginez simplement énoncer votre objectif, et Gemini orchestre intelligemment les étapes pour l’atteindre », a expliqué Google dans son annonce. « Le mode Agent combine de manière transparente des fonctionnalités avancées telles que la navigation web en direct, la recherche approfondie et des intégrations intelligentes avec vos applications Google. »

Lors de la keynote, le PDG de Google, Sundar Pichai, a démontré comment le mode Agent pouvait simplifier la recherche d’appartement. L’IA peut rechercher des annonces sur Zillow selon les critères de l’utilisateur, ajuster les filtres et même planifier des visites de biens immobiliers — le tout sans que l’utilisateur ait à visiter plusieurs sites ou à gérer les détails manuellement.

La technologie fonctionne sur des machines virtuelles cloud et peut gérer jusqu’à dix tâches simultanément, permettant ainsi aux utilisateurs de se concentrer sur d’autres activités pendant que Gemini s’occupe des processus chronophages en arrière-plan. Cette capacité représente une avancée significative dans la manière dont les utilisateurs pourraient interagir avec Internet à l’avenir.

Dans une démarche de standardisation du secteur, Google a également annoncé la compatibilité entre son API/SDK Gemini et le Model Context Protocol (MCP) introduit par Anthropic. MCP est une norme ouverte qui permet aux assistants IA de se connecter à des outils externes, des sources de données et des systèmes via un protocole unifié.

« MCP est un bon protocole et il est en train de devenir rapidement une norme ouverte pour l’ère des agents intelligents en IA », a déclaré Demis Hassabis, PDG de Google DeepMind, soulignant l’engagement de l’entreprise à poursuivre son développement aux côtés d’Anthropic et d’autres partenaires du secteur.

Le mode Agent sera d’abord disponible pour les abonnés Google AI Ultra aux États-Unis, avec une expansion prévue dans d’autres pays prochainement. L’entreprise prévoit également d’ouvrir les capacités de Project Mariner aux développeurs via l’API Gemini cet été, avec des testeurs de confiance comme Automation Anywhere et UiPath déjà en train de construire avec cette technologie.

Source:

Latest News