Igaz ugyan, hogy Washington korábban világossá tette, hogy sem most, sem a jövőben nem szeretné a nukleáris fegyverek feletti ellenőrzést átadni bármiféle mesterséges intelligenciának, ez nem jelenti azt, hogy az algoritmusoknak nem találnának feladatot a csapásmérő eszközöket felügyelő és kezelő tágabb rendszerben.
A témával kapcsolatban egy múlt héten tartott, informatikai fókuszú nemzetközi védelmi konferencián bővebben nyilatkozott az Egyesült Államok stratégiai parancsnokságát irányító Anthony J. Cotton. Az Air&Space Forces beszámolója szerint a légierő kötelékében szolgáló tábornok arról beszélt, hogy a Pentagon a nukleáris arzenálhoz kötődő paracsnoki, irányítási és kommunikációs rendszerek modernizálásánál, fejlesztésénél nagyon is számba veszik a mesterséges intelligencia biztosította lehetőségeket. Hangsúlyozta, hogy "minden lehetséges technológiát, technikát és módszert megvizsgálnak", ami segítheti az NC3 (Nuclear Command, Control and Communications) képességeinek modernizálását.
Az amerikai tábornok szerint a fenyegetések növekvő száma és formája, az egyre több szenzorból áradó egyre nagyobb adattenger és a kiberbiztonsági aggályok mind-mind az MI alkalmazása mellett szólnak. Az algoritmusok fokozott bevetése elengedhetetlen ahhoz, hogy az USA továbbra is riválisai előtt tudjon maradni ezen a területen.
Cotton biztos benne, hogy az MI javítani fogja a nukleáris parancsnokság döntéshozatali képességeit, ugyanakkor arra figyelmeztetett, hogy "soha nem szabad megengednünk, hogy a mesterséges intelligencia hozza meg helyettünk ezeket a döntéseket".
Mindez egybecseng azzal, amiről az amerikai külügyminisztérium fegyverzetellenőrzési tisztviselője még tavasszal nyilatkozott. Paul Dean akkor azt mondta, hogy "Washington egyértelmű és erős elkötelezettséget vállalt" annak kapcsán, hogy a nukleáris fegyverek irányítása emberek kezében maradjon. Hasonló nyilatkozatokat tett Nagy-Britannia és Franciaország is, ám az amerikai tisztviselő tájékoztatójában kitért rá, hogy mindez Kínáról és Oroszországról nem mondható el.
Viccnek durva
Mióta világ a világ, amennyiben egy új technológiának van hadászati szempontból relevanciája, azt a lehető leghamarabb bevezetik. A mesterséges intelligencia esetében sem a ChatGPT megjelenésével kezdtek a témán gondolkodni a vezérkarokban. Amerikai pilóták például már több évvel ezelőtt AR-sisakban mentek ölre gépi kihívóikkal, Kínában pedig tavaly valódi körülmények között aratott győzelmet emberi vetélytársa felett egy MI-pilóta.
Ettől függetlenül az algoritmusok használata nem véletlenül vált ki sokakban megütközést, hiszen a generatív MI elterjedésével egyre csak szaporodnak a kínos tévedésekről, veszélyes hibákról szóló történetek.
Az a kutatási projekt sem éppen a gépek PR-jét erősítette, amit idén év elején publikáltak (PDF). Ebben egy nemzetközi konfliktuskezelési szimulációt végeztek el, ahol a nagyhatalmi szereplőket az elérhető legfejlettebb modellek (GPT-4, Claude 2.0, Llama-2 stb.) alakították. A lefuttatott tesztek alapján az algoritmusok nagyon gyakran eszkalálták a helyzetet nyílt háborúig, nem egyszer úgy, hogy minden előzetes figyelmeztetés nélkül megnyomták azt a bizonyos nagy piros gombot. Szerencsére csak virtuálisan.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak