Meta Platforms a officiellement lancé LLaMA 4, sa famille de modèles d’IA la plus sophistiquée à ce jour, marquant une avancée majeure dans le domaine de l’intelligence artificielle vocale.
Dévoilé en avril 2025, LLaMA 4 introduit deux modèles principaux : Scout et Maverick, tandis qu’un troisième modèle plus puissant, baptisé Behemoth, est encore en développement. Ces modèles reposent sur une architecture « mixture-of-experts », leur permettant de traiter et d’intégrer différents types de données, dont le texte, les images, l’audio et la vidéo, tout en prenant en charge plusieurs langues.
Ce qui distingue LLaMA 4, ce sont ses capacités vocales avancées. Chris Cox, directeur produit de Meta, l’a décrit comme un « modèle omni » capable d’interpréter et de générer nativement de la parole, et non simplement de convertir la voix en texte. Le système permet des conversations naturelles et fluides, où les utilisateurs peuvent même interrompre l’IA en pleine phrase — à l’image d’une interaction humaine. Cette technologie vocale en duplex intégral permet à l’IA de générer directement de la parole, au lieu de simplement lire du texte à voix haute.
Les implications pour les entreprises sont considérables. Meta cible notamment les applications de service client, où LLaMA 4 peut gérer les conversations, fournir une assistance et traiter des transactions. L’entreprise teste déjà des agents IA dédiés aux professionnels, propulsés par cette technologie. Par ailleurs, Meta AI — l’assistant grand public basé sur LLaMA 4 — a déjà séduit 600 millions d’utilisateurs mensuels dans le monde, bien qu’il ne soit pas disponible dans l’Union européenne en raison de préoccupations réglementaires.
L’investissement de Meta dans l’IA est colossal : le PDG Mark Zuckerberg a annoncé un budget pouvant atteindre 65 milliards de dollars en 2025 pour renforcer l’offre d’IA de l’entreprise. Cette stratégie s’inscrit dans la compétition acharnée qui oppose Meta à d’autres géants technologiques comme OpenAI, Microsoft et Google dans la course à la commercialisation de l’IA.
Le lancement de LLaMA 4 incarne la vision de Meta pour l’avenir de l’interaction avec l’IA. À mesure que les modèles linguistiques deviennent plus conversationnels, l’entreprise s’attend à ce que les utilisateurs privilégient la voix au détriment du clavier pour interagir avec leurs assistants IA. Meta a d’ores et déjà lancé une application Meta AI autonome, centrée sur la conversation vocale, actuellement disponible aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande, avec des projets d’expansion mondiale.