Hétvégén debütált a Meta új Llama modellcsaládja. Két modell, a Llama 4 Scout és a Maverick már használható, a Llama 4 Behemoth modell képzése azonban még tart. A Meta szerint a fejlesztések eredménye többek között a natív multimodalitás, a szuper hosszú kontextusablakok és a modellek elképesztő hatékonysága.
Az Llama 4 beköltözik Meta AI mögé is, így azok a felhasználók, akik használják például a WhatsApp, a Messenger és az Instagram MI-alapú asszisztensét, már élvezhetik az előnyeit. A multimodális funkciók egyelőre csak angol nyelven és kizárólag az USA-ban működnek.
A Meta az ún. MoE (mixture of experts) architektúrát használja. A cég állítása szerint számítási szempontból ez a leghatékonyabb a képzéskor és a felhasználói kérdések megválaszolásakor egyaránt. (Az architektúra lényege, hogy a felhasználói utasításokat, kérdéseket a modell részfeladatokra bontja, és azoknak a feldolgozását kisebb, speciális szakértői modellekre bízza.)
Az EU-ban lakó felhasználóknak, valamint azoknak a szervezeteknek, melyeknek ott van a fő üzleti tevékenysége, egyelőre nélkülözni kell az újdonságokat. A korlátozást valószínűsíthetően az uniós adatvédelmi szabályok (GDPR) és a mesterséges intelligencia törvény (AI Act) korlátozásai miatt vezették be. Az viszont általános korlátozás, hogy a több mint 700 millió havi aktív felhasználóval rendelkező cégeknek speciális licencet kell kérniük a modellek használatához, amit a Meta meg is tagadhat a kérelmezőtől.
400 milliárd paraméter, 128 szakértő
A két elérhető modell közül a Maverick a nagyobb. Összesen 400 milliárd paraméterrel (ebből 17 milliárd aktív) és 128 szakértővel rendelkezik. A Scout 109 milliárd paramétert (szintén 17 milliárd aktív) és 16 szakértőt használ a válaszokhoz. Ennek megfelelően utóbbihoz kisebb vas is elegendő: a Meta szerint elfut egy Nvidia H100 GPU-n, míg a Mavericknek Nvidia H100 DGX vagy azzal egyenértékű rendszer kell.
A Behemoth egészen más kategória lesz 2 ezermilliárd paraméterével (ebből 288 milliárd az aktív) és 16 szakértőjével. A Meta szerint azonban cserébe egy olyan csúcsképességű modellt használhatnak majd az ügyfelek, ami jobb a GPT-4.5-nél, a Claude 3.7 Sonnetnél és a Gemini 2.0 Prónál, és különösen a STEM-készségekben, például a matematikai problémák megoldásában erős.
A cég a belső tesztjeire hivatkozva állítja, hogy a Maverick általános asszisztensi és chat jellegű feladatokban (kreatív írás, egyes kódolási feladatok stb.) jobban teljesít, mint GPT-4o vagy a Gemini 2.0. A Scout erősségei pedig a dokumentumok összegzésében és a nagy kódbázisokra épülő érvelésben jó. Extréme nagy kontextusablaka révén képes rendkívül hosszú dokumentumok feldolgozására is.
Csökkentették a cenzúrát
Az új szeleknek megfelelően a Llama 4 modellek most már nem feltétlenül törekednek polkorrekt válaszokra. A Meta is kiemelte: mindegyiket úgy hangolta, hogy ritkábban tagadjon meg választ, ha vitatott témában kap kérdéseket. Tehát olyan témákban is kikérhetjük az új Llama tanácsát, amivel elődei nem akartak foglalkozni. A válasz tényszerű lesz, értékítélet nélkül – ígéri a cég.
És a magyarázat: "Köztudott, hogy minden vezető LLM-nek problémái voltak az elfogultsággal – különösen, hogy történelmileg balra hajolnak, amikor a vitatott politikai és társadalmi témákról van szó" – olvasható a Meta blogjában. A Meta célja viszont az, hogy felszámolják az MI elfogultságát, és az képes legyen megérteni és artikulálni egy vitás kérdés mindkét oldalát.
Mit tehetnénk hozzá? Sok sikert, Meta.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak