Google a élargi sa famille de modèles Gemini 2.5, rendant Gemini 2.5 Flash et Pro généralement disponibles pour tous, tout en introduisant également le 2.5 Flash-Lite, leur modèle 2.5 le plus rapide et le plus économique à ce jour. Les versions stables de 2.5 Flash et Pro sont désormais publiées, permettant aux développeurs de créer des applications de production en toute confiance.
Le 22 juillet 2025, Google a lancé la version stable de Gemini 2.5 Flash-Lite, qui offre une vitesse incroyable, une efficacité économique et une grande qualité. Ce modèle a été conçu pour repousser les limites du rapport intelligence/prix, avec des capacités de raisonnement natives pouvant être activées en option pour les cas d'utilisation les plus exigeants. Proposé à seulement 0,10 $ par million de jetons en entrée et 0,40 $ par million de jetons en sortie, Flash-Lite est spécialement conçu pour les tâches sensibles à la latence comme la traduction et la classification. Il présente une latence inférieure à celle des modèles 2.0 Flash-Lite et 2.0 Flash sur un large éventail de requêtes, ce qui le rend idéal pour les charges de travail à grand volume.
La préversion de Gemini 2.5 Flash-Lite est désormais disponible dans Google AI Studio et Vertex AI, aux côtés des versions stables de 2.5 Flash et Pro. Les modèles 2.5 Flash et Pro sont également accessibles dans l'application Gemini. Google a également intégré des versions personnalisées de 2.5 Flash-Lite et Flash à la recherche Google.
Par ailleurs, Google a présenté Gemini CLI, un agent IA open source qui apporte la puissance de Gemini directement dans les terminaux des développeurs. Il offre un accès léger à Gemini, donnant aux utilisateurs le chemin le plus direct entre leur requête et le modèle. Cet outil intègre Gemini directement dans les terminaux pour le codage, la résolution de problèmes et la gestion de tâches. Les utilisateurs peuvent accéder gratuitement à Gemini 2.5 Pro avec un compte Google personnel, ou utiliser une clé Google AI Studio ou Vertex AI pour un accès élargi.
Gemini CLI a été conçu pour être polyvalent, offrant le chemin le plus direct entre les requêtes et le modèle de Google. S'il excelle dans le codage, il est conçu pour faire bien plus. C'est un utilitaire local polyvalent qui peut être utilisé pour une large gamme de tâches, de la génération de contenu et la résolution de problèmes à la recherche approfondie et la gestion de tâches.
Si la plupart des utilisateurs emploieront Gemini CLI pour le codage, les développeurs peuvent également l'utiliser pour créer des vidéos avec le modèle Veo 3 de Google, générer des rapports de recherche ou accéder à des informations en temps réel via la recherche Google. Google précise aussi que Gemini CLI peut se connecter à des serveurs MCP, permettant aux développeurs de se connecter à des bases de données externes. Pour encourager l'adoption, Google publie Gemini CLI en open source sous licence Apache 2.0 et propose des limites d'utilisation généreuses. Les utilisateurs gratuits peuvent effectuer 60 requêtes par minute et 1 000 requêtes par jour, ce qui, selon l'entreprise, représente environ le double du nombre moyen de requêtes effectuées par les développeurs avec cet outil.
Cette extension de la famille de modèles IA phare de Google représente une avancée majeure pour rendre des outils d'IA puissants plus accessibles aux développeurs comme aux utilisateurs finaux. L'introduction de modèles plus efficaces et d'outils pour développeurs témoigne de la volonté de Google de maintenir sa position concurrentielle sur le marché de l'IA tout en élargissant les applications pratiques.