Meta Platforms a officiellement dévoilé LLaMA 4, sa famille de modèles d’IA la plus sophistiquée à ce jour, marquant une avancée majeure dans la technologie de l’intelligence artificielle propulsée par la voix.
Lancé en avril 2025, LLaMA 4 introduit deux modèles principaux : Scout et Maverick, tandis qu’un troisième modèle plus puissant, nommé Behemoth, est encore en développement. Ces modèles utilisent une architecture « mixture-of-experts », leur permettant de traiter et d’intégrer divers types de données, dont du texte, des images, de l’audio et de la vidéo, tout en prenant en charge plusieurs langues.
Ce qui distingue LLaMA 4, ce sont ses capacités vocales avancées. Chris Cox, chef de produit chez Meta, l’a décrit comme un « modèle omni » capable d’interpréter et de générer la parole de façon native, plutôt que de simplement convertir la voix en texte. Le système permet des conversations naturelles et fluides, où les utilisateurs peuvent même interrompre l’IA en plein discours — à l’image d’une interaction humaine. Cette technologie vocale bidirectionnelle permet à l’IA de générer la parole directement, au lieu de simplement lire du texte à haute voix.
Les retombées commerciales sont considérables. Meta cible les applications de service à la clientèle, où LLaMA 4 peut gérer les conversations avec les clients, offrir du soutien et traiter des transactions. L’entreprise teste déjà des agents IA destinés aux entreprises, propulsés par cette technologie. De plus, Meta AI — l’assistant grand public basé sur LLaMA 4 — compte déjà 600 millions d’utilisateurs mensuels à l’échelle mondiale, bien qu’il ne soit pas disponible dans l’Union européenne en raison de préoccupations réglementaires.
L’investissement de Meta dans l’IA est colossal : le PDG Mark Zuckerberg a annoncé son intention de dépenser jusqu’à 65 milliards de dollars en 2025 pour renforcer l’offre d’IA de l’entreprise. Cette initiative s’inscrit dans la course à la commercialisation de l’IA, alors que Meta rivalise avec d’autres géants technologiques comme OpenAI, Microsoft et Google.
Le lancement de LLaMA 4 incarne la vision de Meta pour l’avenir de l’interaction avec l’IA. À mesure que les modèles linguistiques deviennent plus conversationnels, l’entreprise prévoit que les utilisateurs délaisseront le clavier au profit de la voix pour interagir avec leurs assistants IA. Meta a déjà lancé une application autonome Meta AI conçue pour les conversations vocales, actuellement disponible aux États-Unis, au Canada, en Australie et en Nouvelle-Zélande, avec des plans d’expansion mondiale.