Meta lancerer Llama 3.2 – kunstig intelligens med et twist
Meta giver deres AI en stemme – og synet med
I dag annoncerede Mark Zuckerberg en forvandling af Meta, hvor selskabets AI-assistenter nu får evnen til at tale og se verden omkring dem. Forestil dig, at din AI-assistent pludselig kunne tale med stemmen fra Dame Judi Dench eller John Cena. Lyder det som en scene fra en sci-fi film? Nå, men nu er det virkelighed!
Llama 3.2 tager springet
Meta præsenterede også Llama 3.2, en ny version af deres frie model, som har fået visuelle evner. Vi taler om en kunstig intelligens, der kan se dine billeder, forstå hvad den ser, og måske endda give dig opskrifter baseret på ingredienserne i dit køkken – alt sammen med et skarpt blik fra et sæt Ray Ban smarte briller. Nu er verden ikke bare til at læse om, men også til at se og forstå!
Fra tekst til tale – og lidt celebrity flair
Meta har allerede introduceret os til en række AI-funktioner i deres populære apps som Instagram og Messenger, og nu får vi endda valget mellem stemmer som Awkwafina og Kristen Bell. De nye stemmemuligheder vil være tilgængelige i lande som USA, Canada, Australien og New Zealand. Danmark må vente lidt, men hey, tålmodighed er en dyd, ikke?
Kigger på billeder og uddeler ros
Den nye version af Meta AI kan analysere dine billeder og give dig feedback, f.eks. ved at fortælle dig, hvilken slags fugl du har taget et billede af. Har du taget et fængslende billede af noget uklart, så frygt ej – Meta AI er her for at redde dagen!
Åben versus lukket – hvad vælger du?
Meta fortsætter med at gøre deres modeller mere tilgængelige ved at udgive dem som åben kildekode. Dette kan give udviklere mere frihed til at lave tilpasninger og beskytte deres data. I modsætning til OpenAI’s modeller kan Llama downloades gratis – bare husk, der er altid en lille fodnote, når det kommer til kommerciel brug!
Så hvilken stemme skal du vælge næste gang? Måske en samtale med John Cena mens du koger pasta? Kun fremtiden ved!