menu
close

Google dévoile Gemini 2.5 Flash-Lite ultra-efficace pour une IA à moindre coût

Le 15 juillet 2025, Google a élargi sa famille Gemini 2.5 en lançant officiellement Flash-Lite, son modèle le plus économique et le plus rapide de la série 2.5. Cette sortie coïncide avec la disponibilité générale de Gemini 2.5 Flash et Pro pour tous les utilisateurs. Flash-Lite est conçu pour offrir des performances supérieures sur des tâches à haut débit tout en maintenant la latence et le coût les plus bas de la gamme Gemini 2.5.
Google dévoile Gemini 2.5 Flash-Lite ultra-efficace pour une IA à moindre coût

Google a officiellement lancé Gemini 2.5 Flash-Lite, marquant une avancée majeure pour rendre l’IA puissante plus accessible et plus efficace, tant pour les développeurs que pour les entreprises.

Le nouveau modèle, décrit comme « le plus économique et le plus rapide de la gamme 2.5 » de Google, est optimisé pour les opérations à grand volume et sensibles à la latence. Flash-Lite arrive sur le marché avec la latence et le coût les plus faibles de la famille des modèles 2.5, conçu comme une mise à niveau économique par rapport aux modèles Flash 1.5 et 2.0 précédents. Il offre de meilleures performances dans la plupart des évaluations, avec un temps de réponse initial réduit et un débit de tokens par seconde plus élevé, ce qui le rend idéal pour des tâches à haut débit telles que la classification ou la synthèse à grande échelle.

En tant que modèle de raisonnement, Flash-Lite permet un contrôle dynamique du budget de réflexion via un paramètre d’API. Contrairement aux autres modèles Gemini 2.5 où la réflexion est activée par défaut, Flash-Lite optimise le coût et la rapidité en gardant cette fonctionnalité désactivée, sauf demande explicite. Malgré cette optimisation, il prend en charge tous les outils natifs, y compris l’ancrage sur Google Search, l’exécution de code, le contexte d’URL et l’appel de fonctions.

Les tests de performance montrent que Flash-Lite est 1,5 fois plus rapide que Gemini 2.0 Flash à un coût inférieur, ce qui le rend particulièrement adapté aux tâches telles que la classification, la traduction, le routage intelligent et d’autres opérations à grande échelle et sensibles au coût. Alors que d’autres modèles privilégient par défaut des outils de raisonnement plus puissants (et plus coûteux) pour répondre aux questions, Flash-Lite donne aux développeurs le contrôle sur ce processus. Les utilisateurs peuvent activer ou désactiver la capacité de réflexion selon leurs besoins spécifiques, et malgré son efficacité économique, Flash-Lite n’est pas limité dans ses capacités.

La préversion de Gemini 2.5 Flash-Lite est désormais disponible dans Google AI Studio et Vertex AI, aux côtés des versions stables de 2.5 Flash et Pro. Les modèles 2.5 Flash et Pro sont également accessibles dans l’application Gemini, et Google a intégré des versions personnalisées de 2.5 Flash-Lite et Flash à la recherche Google.

Cette expansion stratégique de la famille des modèles Gemini illustre l’engagement de Google à démocratiser l’IA en proposant des options qui équilibrent performance, coût et rapidité pour différents cas d’usage, qu’il s’agisse de tâches de raisonnement complexes ou de traitement de données à grande échelle.

Source:

Latest News