.jpg)
Egyelőre senki sem vette nevére azt az egybillió (ezer milliárd) paraméteres ingyenes nagy nyelvi modellt, ami a múlt héten bukkant fel az OpenRouter platformon. Sokan úgy vélik, hogy a Hunter Alpha néven futó LLM valójában a DeepSeek következő generációs rendszere, amit a kínai startup így tesztel.
A Reuters magától a modellre épülő chatbottól próbálta megtudni a teremtőjét, de a bot csak annyit árult el, hogy elsősorban kínaiul képezték, és a képzési adatkészletét 2025 májusában zárták. Ezenkívül csak „a nevemet, a paraméterskálámat és a kontextusablak hosszát ismerem” – „nyilatkozta” a Reutersnek. A kontextusablak egyébként egymillió tokenes (rövid szövegrészlet), ami kb. 3 átlagos regény méretének felel meg.
Himansh Jain, a TheAITechPulse.com alapító-szerkesztője így foglalta össze az új modell tulajdonságait:
● Nem chatbot, hanem MI-ügynöki feladatokhoz tervezett motor, amit összetett érvelésre és folyamatos, többlépéses feladat-végrehajtásra terveztek.
● Eszközhívásai (vagy függvényhívásai), amelyekkel pl. valós idejű adatokhoz juthat, megbízhatóbbak, mint más hasonló méretű modelleké.
● Szigorúan követi az utasításokat, nem „javítja” a feladatot. Ez strukturált feladatoknál jó, kreatív munkánál korlátoz.
● Kapcsolatot biztosít az OpenClaw-hoz. A modell leírása szerint éles környezetbe szánt ügynöki folyamatokhoz készült, mint amilyen az OpenClaw is.
Jellemzői (paraméterszám, kontextusablak, fejlett logikai képességek, szabad hozzáférés), a kínai sajtóban a DeepSeek V4-ről keringő specifikációk, valamint hogy a startup chatbotjának tudástárát szintén tavaly májusban zárták, egyaránt azt a feltételezést erősítik, hogy a modell mögött a DeepSeek állhat.
Egy (emberi) szakértő, aki szintén a DeepSeek fejlesztésének tartja a modellt, azt mondta a Reutersnek, hogy a fentieknél is árulkodóbb a gondolatlánc-minta, azaz az érvelési stílus. Ebből lehet következtetni arra, hogy a modellt hogyan képezték.
A kétkedők
Persze ennek a történetnek is az adja a szépségét, hogy más szakértők gyökeresen más következtetésre jutottak. Nem lehet a DeepSeek a szerző, állítja egy másik (emberi) szakértő, aki szerit a rejtélyes modell tokenekkel kapcsolatos viselkedése és az architekturális mintái markánsan mások, mint a DeepSeek ismert modelljeié.
A Medium.com-on publikált írásában Himansh Jain számba veszi a neten keringő feltételezéseket.
Az első számú jelölt nála is a DeepSeek, de a egyes tesztelők szerint ez ellen szól, hogy a Hunter Alpha cenzúrája erősebb, matematikai teljesítménye pedig gyengébb, mint a korábbi DeepSeek modelleké.
Hasonlóan erős, de szintén csak közvetett bizonyítékok utalnak arra, hogy a modell mögött egy szintén kínai MI-labor, a Zhipu AI állhat. Emellett felmerült még az OpenAI, valamint a Tencent szerzősége, bár utóbbit tartják a legkevésbé valószínűnek.
A modell gyorsan elterjedt, az OpenRouter statisztikái szerint az első három napban 226 milliárd tokent dolgoztak fel vele. Főleg szoftverfejlesztők és MI-alapú ügynöki keretrendszerek (pl. az OpenClaw) használói próbálkoztak vele.
A Hunter Alpha figyelmezteti a felhasználóit, begyűjti a felhasználói inputokat, amiket majd fel is használhatnak a fejlesztéséhez. Mint a Reuters megjegyzi, ez már bevett iparági a gyakorlat, mert a fejlesztő cégek úgy vélik, a „lopakodó” modellbevezetés révén elfogulatlan visszajelzéseket kaphatnak.
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
HPE Morpheus VM Essentials: a virtualizáció arany középútja
Minden, amire valóban szükség van, ügyfélbarát licenceléssel és HPE támogatással - a virtualizációs feladatok teljes életciklusát végigkíséri az EURO ONE Számítástástechnikai Zrt.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?