menu
close

Google élargit la famille Gemini 2.5 avec Flash-Lite ultra-efficace

Google a élargi sa famille Gemini 2.5 en rendant Gemini 2.5 Flash et Pro généralement disponibles, tout en lançant en préversion 2.5 Flash-Lite – leur modèle 2.5 le plus rapide et le plus économique à ce jour. Flash-Lite est un modèle de raisonnement optimisé pour le coût et la rapidité, avec la fonction « réflexion » désactivée par défaut, offrant une option encore moins coûteuse pour les cas d’usage sensibles à la latence qui nécessitent moins d’intelligence du modèle. Parallèlement, Gemini 2.5 Pro est devenu le modèle leader mondial sur les classements WebDev Arena et LMArena, illustrant la progression continue de Google en IA.
Google élargit la famille Gemini 2.5 avec Flash-Lite ultra-efficace

Google a annoncé que Gemini 2.5 Flash et 2.5 Pro sont désormais stables et généralement disponibles, offrant aux organisations la fiabilité et l’évolutivité nécessaires pour déployer en toute confiance des capacités d’IA avancées dans des applications critiques. Parallèlement à ces lancements, l’entreprise a présenté Gemini 2.5 Flash-Lite en préversion, décrit comme leur modèle 2.5 le plus rapide et le plus économique à ce jour.

Gemini 2.5 Flash-Lite est un modèle de raisonnement qui permet un contrôle dynamique du budget de réflexion via un paramètre d’API. Contrairement aux autres modèles de la famille 2.5, Flash-Lite est optimisé pour le coût et la rapidité, avec la « réflexion » désactivée par défaut. Malgré ces optimisations, il prend en charge tous les outils natifs, notamment Grounding avec Google Search, l’exécution de code et le contexte URL, en plus de l’appel de fonctions.

Flash-Lite offre de meilleures performances que le précédent modèle Flash-Lite et est 1,5 fois plus rapide que 2.0 Flash, pour un coût inférieur. Il est spécialement conçu pour les tâches à grand volume et sensibles à la latence, telles que la traduction, la classification, le routage intelligent et d’autres opérations à grande échelle et à coût optimisé. Le modèle affiche des performances nettement supérieures à 2.0 Flash-Lite sur les benchmarks de codage, mathématiques, sciences, raisonnement et multimodalité, ce qui le rend idéal pour les tâches à grand volume.

Comme les autres modèles de la famille Gemini 2.5, Flash-Lite dispose de fonctionnalités utiles, notamment la possibilité d’activer la réflexion selon différents budgets, la connexion à des outils comme Grounding avec Google Search et l’exécution de code, l’entrée multimodale et un contexte de 1 million de tokens. Pour garantir des réponses actuelles et factuelles, Flash-Lite peut utiliser Google Search comme outil intégré, décidant intelligemment quand utiliser la recherche pour enrichir ses connaissances.

Au-delà de l’introduction de Flash-Lite, Google a annoncé que Gemini 2.5 Pro est devenu le modèle leader mondial sur les classements WebDev Arena et LMArena. Avec un score ELO de 1415 sur le classement de codage WebDev Arena, il domine tous les classements de LMArena, qui mesure les préférences humaines selon de multiples dimensions. De plus, Google a intégré LearnLM directement dans Gemini 2.5, en faisant le modèle de référence mondial pour l’apprentissage. Selon leur dernier rapport, Gemini 2.5 Pro a surpassé ses concurrents dans toutes les catégories de principes des sciences de l’apprentissage, les enseignants et experts en pédagogie le préférant à d’autres solutions dans divers scénarios éducatifs.

Gemini 2.5 Flash-Lite est désormais disponible en préversion dans Google AI Studio et Vertex AI, aux côtés des versions stables de 2.5 Flash et Pro. Les développeurs peuvent accéder au modèle (gemini-2.5-flash-lite-preview-06-17) via le SDK Google Gen AI, qui offre une interface unifiée à la famille de modèles Gemini 2.5, aussi bien via l’API Gemini Developer que l’API Vertex AI Gemini.

Source:

Latest News