Az amerikai légierővel is kapcsolatban álló egyetemi kutatók közös augsztusi cikkükben érvelnek egy olyan, mesterséges intelligenciára épülő, automatizált megoldás fejlesztése mellet, amely kiküszöbölné a jelenlegi és ma már elavultnak tekintett nukleáris vezetési, irányítási és hírközlési rendszer hiányosságait. Ez praktikusan azt jelentené, hogy mások ellett az MI-re bíznák a nukleáris rakéták indítását, amiről saját bevallásuk szerint is egyből a Dr. Strangelove című kultfilm Ítéletnap-gépe vagy a Terminator filmek Skynet számítógépe juthat először az ember eszébe – ehhez azonban hozzáteszik, hogy a scifik profetikus képei mára valósággá váltak.
A kutatók már az anyag címében is a holt kéznek nevezett, állítólagos szovjet-orosz fegyverzetirányítási rendszerre utalnak, amelynek az (lett volna) a feladata, hogy a katonai irányítás teljes megsemmisülésekor automatikus válaszcsapást indítson. A mostani cikk szerint a fejlett technológia, ide értve a hiperszonikus fegyvereket, a lopakodó rakétákat, magát a fegyverként használt a mesterséges intelligenciát vagy akár a valós idejű kommunikációt, még a korábbiakhoz képest is drasztikusan lecsökkentették a rendelkezésre álló észlelési és döntéshozatali időket.
A tudósok úgy látják, hogy a "rendszerekből, eljárásokból és emberekből álló rendszerben" képtelenség bármire a megfelelő gyorsasággal reagálni az eseményekre, így az aktuális ellenség által okozott meglepetéseket vagy válaszlépéseket csak a mesterséges intelligencia bevonásával lehet hatékonyan kezelni. Ez szerintük a megelőző jellegű csapásokra is érvényes, vagyis az MI-nek nem csak arra lenne lehetősége, hogy használja a szóban forgó fegyvereket, de ezt úgy is tehetné meg, hogy a kockázatok elemzése nyomán már a feltételezett támadások előtt felkészti és akár be is veti őket.
Nem eszik olyan forrón a Skynetet
Az elképzelés alapján az amerikai vezetés természetesen előre meghatározhatná, hogy milyen akcióhoz milyen reakciót vagy megelőző intézkedéseket rendel, de az észlelés, a helyzet értékelése és a folyamatok elindítás már teljes egészében a mesterséges intelligencia feladata lenne. A cikk szerint egy ilyen rendszerenek az lenne a legnagyobb előnye, hogy eleve megkötné az első csapást tervező ellenség kezét. A javaslatban arra is hivatkoznak, hogy a klasszikus hidegháború gondolkodásmódja, normái, netán szabályai ma már nem érvényesek, miközben az ellenfelek továbbra is a staus quo felborításán munkálkodnak.
Az anyagot annak ellenére is több forrás felkapta, hogy a szerzők egyértelművé teszik, abban nem képviselik sem az amerikai védelmi minisztérium, sem saját intézményeik álláspontját. Az egész dolog inkább amiatt érdekes, hogy a kritikák a mesterséges intelligencia alkalmazásával kapcsolatban máshol is felmerülő aggályokat fogalmazzák meg, azúttal azonban egy sokkal látványosabb elképzelés kapcsán.
A legelső ilyen szempont az úgynevezett "automation bias", ami körülbelül az automatizálásból adódó elhajlást jelenti. Ennek gyakran emlegetett példája az új autók vezetéstámogató rendszereinek egyre szélesebb körű és egyre fejlettebb funkcionalitása, ami csak addig jó dolog, amíg a sofőr is hajlandó odafigyelni. Abban az esetben azonban, ha teljes mértékben rábízza magát a valamilyen szintű önvezető képességgel rendelkező rendszerre, esélye sem lesz beavatkozni az algoritmus hibás működése vagy leállása nyomán bekövetkező eseményekbe. Sőt az "automation bias" akár abban is megnyilvánulhat, hogy az emberek hajlamosabbak jobban hinni a gépeknek, mint az emberektől (akár saját maguktól) származó, ellentétes értelmű döntéseknek.
Másfelől ott van a rendszer betanításának kérdése, ami szintén ezer és egy problémát okoz az MI alkalmazásának egyéb területein. Az amerikai atomarzenált irányító programhoz egyszerűen nem áll rendelkezésre elégséges mennyiségű és minőségű adat, ami azt jelentené, hogy a betanításhoz használt adatkészlet nagy része valamilyen szimulációból származó informáxió lenne. Ez pedig érdemben nem is változna soha: az automatizált csapásmérő rendszer elrettentő ereje akkor érvényesül, ha mindenki tud róla, és felfogja, hogy miért nem érdemes az Egyesült Államokat fenyegetnie. Valódi fenyegetések hiányában viszont valódi adatok sem keletkeznek, amelyekkel a gépi tanuló alkalmazást fejleszteni lehetne.
A legfontosabb, nem annyira technológiai jellegű kritika viszont az eső csapással kapcsolatos eddigi vezérelvek szükségszerű átalakítását érinti. A Vice magazin által megszólaltatott szakértő például kifejezetten rossz ötletnek tartja, ha bármi miatt is lefelé kellene módosítani a védelmi készenléti szinteket és az atomfegyverek bevetésének kritériumait – ez szerinte különösen igaz, ha éppen olyasvalaki az amerikai elnök, aki atombombát dobna a hurrikánokra, és aki sorozatszínésznőkkel való ordenáré veszekedésekre használja a Twitter-csatornáját.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak