Meta afslører Llama 4 – ny AI-generation, der sparker døren ind
Meta er tilbage med et brag! Denne gang med lanceringen af den længe ventede *Llama 4*-serie – en ny samling af banebrydende AI-modeller, der allerede nu får hjulene til at snurre på Meta AI-platformen og i populære apps som *WhatsApp*, *Messenger* og *Instagram Direct*. Llama 4 bringer os endnu tættere på fremtiden, og to modeller – *Scout* og *Maverick* – står klar til download fra Meta eller Hugging Face.
Ingen GPU-stress med Llama 4 Scout
Llama 4 Scout er den lille arbejdshest i familien, men lad dig ikke snyde. Med sine 17 milliarder aktive parametre og en episk kontekstvindue på *10 millioner tokens*, er Scout i stand til at slå konkurrenter som Google’s Gemini 2.0 Flash-Lite og open source-stjernen *Mistral 3.1* i brede testmålinger – alt sammen på en enkelt Nvidia H100 GPU. Hvem sagde effektivitet?
Maverick – den skarpe allrounder
Så er der storebroren *Llama 4 Maverick*. Også med 17 milliarder aktive parametre, men hele 400 milliarder i alt. Den leverer imponerende præstationer inden for både tekst- og billedforståelse på tværs af *12 sprog*. Maverick er som skabt til general-purpose-opgaver og bruger ligesom Scout den smarte *Mixture of Experts*-arkitektur, som sparer ressourcer og kun aktiverer de dele af modellen, der behøves til opgaven.
Llama 4 Behemoth – den kommende superstjerne
Ventetiden på *Behemoth* lover at blive det hele værd. Selv før færdiggørelsen erklærer Meta, at dette monster kan overgå selv GPT-4.5 og *Claude Sonnet 3.7* på STEM-benchmarks. Med hele *288 milliarder aktive parametre* og intet mindre end *2 trillioner parametre* i alt, er Behemoth sat op til at blive en verdensklasse underviser for resten af Llama 4-økosystemet.
Modeskift med Mixture of Experts
Llama 4-serien skinner ved hjælp af sin avancerede *Mixture of Experts*-arkitektur. I stedet for at tæske hele modellen igennem for hver opgave, bruger systemet kun de „eksperter‟, der er nødvendige. Hvad betyder det? Bedre præstation, mindre brug af ressourcer – og en AI-model, der arbejder smartere, ikke hårdere.
En multimodal magtdemonstration
Llama 4 går også multimodal! Modellerne integrerer tekst og visuelle data gnidningsfrit, hvilket gør separate modeller for tekst og billeder overflødige. Kort sagt: Llama 4 kan forstå og forbinde verden på nye måder – fra kompleks analyse til kreative løsninger.
Åbent for nogle – med begrænsninger
Selv om Meta kalder Llama 4 „open source,‟ er der kommet kritik for licensbetingelserne. Virksomheder med over *700 millioner månedlige brugere* skal søge om tilladelse, før de anvender modellerne kommercielt. Det trækker stadig lidt luft ud af „open‟-delen, men Meta forsikrer, at modellerne er let tilgængelige for de fleste udviklere og AI-entusiaster.
Hvad så nu?
Meta agter at dele fremtidsplanerne for Llama 4 og kommende AI-produkter på *LlamaCon den 29. april*. Hvis Scout og Maverick er en indikator, kan vi godt spænde sikkerhedsbæltet – Meta har kurs mod at redefinere, hvad vi forventer af AI.
Så gør klar til at trykke „Download‟! Meta gør det klart: Fremtiden tilhører Llama 4.