Hétvégén debütált a Meta új Llama modellcsaládja. Két modell, a Llama 4 Scout és a Maverick már használható, a Llama 4 Behemoth modell képzése azonban még tart. A Meta szerint a fejlesztések eredménye többek között a natív multimodalitás, a szuper hosszú kontextusablakok és a modellek elképesztő hatékonysága.
Az Llama 4 beköltözik Meta AI mögé is, így azok a felhasználók, akik használják például a WhatsApp, a Messenger és az Instagram MI-alapú asszisztensét, már élvezhetik az előnyeit. A multimodális funkciók egyelőre csak angol nyelven és kizárólag az USA-ban működnek.
A Meta az ún. MoE (mixture of experts) architektúrát használja. A cég állítása szerint számítási szempontból ez a leghatékonyabb a képzéskor és a felhasználói kérdések megválaszolásakor egyaránt. (Az architektúra lényege, hogy a felhasználói utasításokat, kérdéseket a modell részfeladatokra bontja, és azoknak a feldolgozását kisebb, speciális szakértői modellekre bízza.)
Az EU-ban lakó felhasználóknak, valamint azoknak a szervezeteknek, melyeknek ott van a fő üzleti tevékenysége, egyelőre nélkülözni kell az újdonságokat. A korlátozást valószínűsíthetően az uniós adatvédelmi szabályok (GDPR) és a mesterséges intelligencia törvény (AI Act) korlátozásai miatt vezették be. Az viszont általános korlátozás, hogy a több mint 700 millió havi aktív felhasználóval rendelkező cégeknek speciális licencet kell kérniük a modellek használatához, amit a Meta meg is tagadhat a kérelmezőtől.
400 milliárd paraméter, 128 szakértő
A két elérhető modell közül a Maverick a nagyobb. Összesen 400 milliárd paraméterrel (ebből 17 milliárd aktív) és 128 szakértővel rendelkezik. A Scout 109 milliárd paramétert (szintén 17 milliárd aktív) és 16 szakértőt használ a válaszokhoz. Ennek megfelelően utóbbihoz kisebb vas is elegendő: a Meta szerint elfut egy Nvidia H100 GPU-n, míg a Mavericknek Nvidia H100 DGX vagy azzal egyenértékű rendszer kell.
A Behemoth egészen más kategória lesz 2 ezermilliárd paraméterével (ebből 288 milliárd az aktív) és 16 szakértőjével. A Meta szerint azonban cserébe egy olyan csúcsképességű modellt használhatnak majd az ügyfelek, ami jobb a GPT-4.5-nél, a Claude 3.7 Sonnetnél és a Gemini 2.0 Prónál, és különösen a STEM-készségekben, például a matematikai problémák megoldásában erős.
A cég a belső tesztjeire hivatkozva állítja, hogy a Maverick általános asszisztensi és chat jellegű feladatokban (kreatív írás, egyes kódolási feladatok stb.) jobban teljesít, mint GPT-4o vagy a Gemini 2.0. A Scout erősségei pedig a dokumentumok összegzésében és a nagy kódbázisokra épülő érvelésben jó. Extréme nagy kontextusablaka révén képes rendkívül hosszú dokumentumok feldolgozására is.
Csökkentették a cenzúrát
Az új szeleknek megfelelően a Llama 4 modellek most már nem feltétlenül törekednek polkorrekt válaszokra. A Meta is kiemelte: mindegyiket úgy hangolta, hogy ritkábban tagadjon meg választ, ha vitatott témában kap kérdéseket. Tehát olyan témákban is kikérhetjük az új Llama tanácsát, amivel elődei nem akartak foglalkozni. A válasz tényszerű lesz, értékítélet nélkül – ígéri a cég.
És a magyarázat: "Köztudott, hogy minden vezető LLM-nek problémái voltak az elfogultsággal – különösen, hogy történelmileg balra hajolnak, amikor a vitatott politikai és társadalmi témákról van szó" – olvasható a Meta blogjában. A Meta célja viszont az, hogy felszámolják az MI elfogultságát, és az képes legyen megérteni és artikulálni egy vitás kérdés mindkét oldalát.
Mit tehetnénk hozzá? Sok sikert, Meta.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak