menu
close

Google élargit la famille Gemini 2.5 avec Flash-Lite ultra-efficace

Google a élargi sa famille Gemini 2.5 en rendant Gemini 2.5 Flash et Pro généralement disponibles, tout en lançant 2.5 Flash-Lite en aperçu – leur modèle 2.5 le plus rapide et économique à ce jour. Flash-Lite est un modèle de raisonnement optimisé pour le coût et la rapidité, avec la fonction de « réflexion » désactivée par défaut, offrant ainsi une option encore plus abordable pour les cas d’utilisation sensibles à la latence nécessitant moins d’intelligence du modèle. Par ailleurs, Gemini 2.5 Pro est devenu le modèle de référence mondial sur les classements WebDev Arena et LMArena, démontrant l’avancée continue de Google en IA.
Google élargit la famille Gemini 2.5 avec Flash-Lite ultra-efficace

Google a annoncé que Gemini 2.5 Flash et 2.5 Pro sont désormais stables et généralement disponibles, offrant aux organisations la fiabilité et l’évolutivité nécessaires pour déployer en toute confiance des capacités avancées d’IA dans des applications critiques. Parallèlement à ces lancements, l’entreprise a présenté Gemini 2.5 Flash-Lite en aperçu, décrit comme leur modèle 2.5 le plus économique et le plus rapide à ce jour.

Gemini 2.5 Flash-Lite est un modèle de raisonnement qui permet un contrôle dynamique du budget de réflexion grâce à un paramètre d’API. Contrairement aux autres modèles de la famille 2.5, Flash-Lite est optimisé pour le coût et la rapidité, avec la réflexion désactivée par défaut. Malgré ces optimisations, il prend en charge tous les outils natifs, y compris Grounding avec la recherche Google, l’exécution de code et le contexte d’URL, en plus de l’appel de fonctions.

Flash-Lite offre des performances supérieures à celles du précédent modèle Flash-Lite et est 1,5 fois plus rapide que 2.0 Flash, à un coût inférieur. Il est spécialement conçu pour les tâches à grand volume et sensibles à la latence comme la traduction, la classification, le routage intelligent et d’autres opérations à grande échelle où le coût est un facteur clé.

Le modèle affiche des performances nettement supérieures à celles de 2.0 Flash-Lite sur les bancs d’essai de codage, mathématiques, sciences, raisonnement et multimodal, ce qui le rend idéal pour les tâches à haut volume.

Comme les autres modèles de la famille Gemini 2.5, Flash-Lite offre des fonctionnalités utiles, notamment la possibilité d’activer la réflexion à différents niveaux de budget, la connexion à des outils comme Grounding avec la recherche Google et l’exécution de code, la prise en charge d’entrées multimodales et un contexte de 1 million de jetons.

Pour garantir des réponses à jour et factuelles, Flash-Lite peut utiliser la recherche Google comme outil intégré, décidant intelligemment quand l’utiliser pour enrichir ses connaissances.

Au-delà de l’introduction de Flash-Lite, Google a annoncé que Gemini 2.5 Pro est devenu le modèle de référence mondial sur les classements WebDev Arena et LMArena. Avec un score ELO de 1415 sur le classement de codage WebDev Arena, il domine tous les classements de LMArena, qui mesure les préférences humaines sur plusieurs dimensions.

De plus, Google a intégré LearnLM directement dans Gemini 2.5, en faisant le modèle de référence mondial pour l’apprentissage. Selon leur dernier rapport, Gemini 2.5 Pro a surpassé ses concurrents dans toutes les catégories de principes scientifiques de l’apprentissage, les éducateurs et experts en pédagogie le préférant aux autres solutions dans divers scénarios d’apprentissage.

Gemini 2.5 Flash-Lite est maintenant disponible en aperçu dans Google AI Studio et Vertex AI, aux côtés des versions stables de 2.5 Flash et Pro. Les développeurs peuvent accéder au modèle (gemini-2.5-flash-lite-preview-06-17) via le SDK Google Gen AI, qui fournit une interface unifiée à la famille de modèles Gemini 2.5, tant par l’API Gemini Developer que par l’API Vertex AI Gemini.

Source:

Latest News