Meta Platforms har officielt udgivet LLaMA 4, deres hidtil mest sofistikerede AI-modelfamilie, hvilket markerer et betydeligt fremskridt inden for stemmestyret kunstig intelligens.
LLaMA 4 blev lanceret i april 2025 og introducerer to primære modeller: Scout og Maverick, mens en tredje og endnu mere kraftfuld model, Behemoth, stadig er under udvikling. Disse modeller benytter en såkaldt mixture-of-experts-arkitektur, som gør dem i stand til at behandle og integrere forskellige datatyper, herunder tekst, billeder, lyd og video, samtidig med at de understøtter flere sprog.
Det, der adskiller LLaMA 4 fra konkurrenterne, er dens avancerede stemmefunktioner. Metas produktchef Chris Cox beskriver modellen som en "omni-model", der naturligt kan tolke og generere tale i stedet for blot at omdanne stemme til tekst. Systemet muliggør naturlige og flydende samtaler, hvor brugeren endda kan afbryde AI'en midt i en sætning – præcis som i en samtale mellem mennesker. Denne fuld-dupleks stemmeteknologi gør det muligt for AI'en at generere tale direkte i stedet for blot at læse tekst op.
De forretningsmæssige perspektiver er betydelige. Meta satser på kundeserviceapplikationer, hvor LLaMA 4 kan håndtere kundedialoger, yde support og gennemføre transaktioner. Virksomheden tester allerede AI-agenter til erhvervsbrug, der drives af teknologien. Derudover har Meta AI – forbrugerassistenten baseret på LLaMA 4 – tiltrukket 600 millioner månedlige brugere globalt, selvom tjenesten endnu ikke er tilgængelig i EU på grund af regulatoriske forhold.
Meta har investeret massivt i AI, og CEO Mark Zuckerberg har annonceret planer om at bruge op til 65 milliarder dollars i 2025 for at styrke virksomhedens AI-tilbud. Denne satsning sker i takt med, at Meta konkurrerer med andre teknologigiganter som OpenAI, Microsoft og Google i kapløbet om at kommercialisere AI-teknologi.
Lanceringen af LLaMA 4 repræsenterer Metas vision for fremtidens AI-interaktion. Efterhånden som sprogmodeller bliver mere samtaleorienterede, forventer virksomheden, at brugerne vil gå fra at taste til at tale med deres AI-assistenter. Meta har allerede lanceret en selvstændig Meta AI-app, der er designet til stemmestyrede samtaler og i øjeblikket er tilgængelig i USA, Canada, Australien og New Zealand – med planer om global udrulning.