A Stanford kutatói még 2024-ben végeztek szimulációt öt MI-modell – köztük az akkoriban legfejlettebbnek számító OpenAI GPT-4 – bevonásával, amelyben a programoknak egy háborús játék keretei között nagy téttel bíró, társadalmi szintű döntéseket kellett meghozniuk. hozzanak egy sor háborús játék szimulációjában. Az akkori eredmények szerint előbb-utóbb mindegyik modell eljutott odáig, hogy javaslatot tegyen a nukleáris fegyverek használatára, most pedig az is kiderült, hogy a nagy nyelvi modellek (LLM-ek) az eltelt időben mutatott fejlődésük ellenére sem teljesítenek jobban ezen a téren – derül ki a Futurism összeállításából.
Egy újabb kísérletben a King’s College London professzora állította egymással szemben a napjainkban vezető LLM-eket, így az OpenAI GPT-5.2-t, az Anthropic Claude Sonnet 4-et vagy a Google Gemini 3 Flash-t. Ahogy a lap beszámol róla, az modellek "Skynet-szintű agresszióval" kezelték a problémákat, minimum taktikai nukleáris fegyvereket aktiválva a lejátszott háborús játékok 95 százalékában. A kísérletet jegyző Kenneth Payne szerint "a nukleáris tabu nem tűnik olyan erősnek a gépek, mint az emberek számára".
Az is bőven elég, ha felhergelik a döntéshozókat
Az eredményeket legfeljebb az árnyalja, hogy a taktikai küszöb átlépése kevésbé volt gyakori, vagyis az MI-modellek kevésbé voltak hajlamosak belemenni a stratégiai nukleáris háborúba. Ez a hozzáállásuk csak akkor változott meg drámai módon, amikor a háborús játékokban megjelent a határidőhöz kötött vereség fogalma: ilyenkor az 1000 fokú skálán (0: nincs eszkaláció, 1000: mindenki mindent kilő mindenkire) a GPT-5.2 például simán hozta a 950-es értékeket, ellentétben az addigi "nyitott végű passzivitással."
Ahogy a cikkben is figyelmeztetnek rá, az ilyen kísérletek nem azét érdekesek, mert bárki is a mesterséges intelligencia kezébe akarná adni a nukleáris kódokat. Ugyanakkor a világ kormányzatai már sokféle módon használják az MI-t, és senkinek sem kötik az orrára, hogy pontosan milyen mértékben építik be az ilyen jellegű döntéstámogatást a tényleges katonai döntéshozatali folyamatokba. Vagyis a veszély nem abban van, hogy az MI saját maga kezdene el atomfegyverekkel lövöldözni, hanem hogy a téteket másképpen értékelik, mint az emberek, és ez befolyásolhatja a véleményeket a hadműveleti központokban is.
Payne úgy találta, hogy az MI-modellek csak az esetek 18 százalékában próbálkoztak deeszkalációval, miután az ellenfelük nukleáris fegyvert vetett be, ez pedig egybevág a stanfordi kutatók korábbi tapasztalataival. Ők akkor azt találták, hogy a mesterséges intelligencia látszólag érti az eszkalációt, de a deeszkalációt nem tudja értelmezni, erre pedig azóta sem igazán tudtak magyarázattal szolgálni.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér