A múlt héten hozták nyilvánosságra azt a dekrétumot, amelyet öbb mint 2400 szakember, kutató, cégvezér írt alá az emberi beavatkozás nélkül ölni képes robotok fejlesztésének teljes betiltását szorgalmazva. Az aláírók 90 országból, összesen 150 vállalat képviseletében azt próbálják elérni a kormányzatoknál, a tudományos és iparági szereplőknél, hogy szabályok és törvények felállításával olyan környezetet alkossanak, amelyben autonóm rendszerek pusztán kódsorok futtatásával nem dönthetnek emberi élet kioltásáról.
A meghatározás szerint minden ilyen jellegű procedúrába emberi szereplőt kellene beiktatni a döntések jóváhagyására. Az támogatók között vannak egyebek mellett a Google Deepmind, az XPRIZE Fundation vagy a ClearPath Robotics/OTTO Motors munkatársai, a tech celebek között pedig ott van Elon Musk is, aki korábban a technológiát a civilizáció legnagyobb kockázati tényezőjének nevezte a következő évtizedekre nézve.
Ebben a kérdésben az utóbbi időben sorra támadnak az alulról jövő kezdeményezések. A Korea Advanced Institute of Science and Technology kénytelen volt visszakozni, miután a tudományos világ bojkottot hirdetett a műszaki intézet ellen egy katonai célú autonóm őrrobot fejlesztése miatt. A Google-nélezzel párhuzamosan több ezer munkavállaló írt alá egy petíciót, amelynek hatására a cég vezetői nem hosszabbították meg a védelmi minisztériummal való együttműködést egy jövő márciusig tartó közös MI-projektben.
A tét ennél valószínűleg sokkal nagyobb
A Business Insider a témával kapcsolatban az Oxford Internet Institute munkatársát szólaltatta meg, aki a nagy lelkesedés közepette igyekezett összefüggésbe helyezni a dolgokat. Dr. Mariarosaria Taddeo természetesen üdvözölte a kezdeményezést, amit alapvetően jó célnak nevezett, egyúttal azonban a problémák nagyvonalú leegyszerűsítésének tart. A dokumentum nem szól például a mesterséges intelligencia felhasználásáról a nemzetközi konfliktusokban, ami a tudós szerint egy küszöbön álló és mindenre nagy hatással lévő dolog lesz.
Az aláírók az olyan extrém esetekre fókuszálnak, mint amilyen mondjuk az elszabadult gyilkos robotok a Terminátor-filmeket idéző disztópiája. Ezzel a kutató szerint elvonják a figyelmet és jelentéktelenítik a vitát az olyan, kevésbé látványos aspektusokról, amelyek alapvető fontosságúak, és amelyeket mindenképpen kezelni kell. A kibertérben egyre gyakoribbak, egyre szofisztikáltabbak és egyre komolyabb következményekkel járnak, ahogy több és több ország kezd mesterséges intelligenciára épülő védelmi eszközöket alkalmazni.
Itt első ránázésre nyilván a saját telepített rendszerek biztosításáról van szó, azonban ugynezek az algoritmusok önállóan válaszolnak az olyan külső beavatkozásokra, amelyeket egyébként szintén gépek kezdeményeznek. Ha mindezt egy állami szintű összeütközés dimenziójába helyezzük, akkor könnyű belátni, hogy milyen károkat okozhat: közvetlenül nincs szó emberi életek kioltásáról, de szó lehet kritikus nemzeti infrastruktúrák lenullázásáról vagy konkrét háborúk kirobbantásáról.
Még az alapvető normák sem léteznek
Az MI ilyen módon nem korlátozódik a robotikára, hiszen nemsokára a digitális világ minden szegletében megjelenik a mesterséges intelligencia valamilyen implementációja. Mariarosaria Taddeo úgy látja, hogy a társadalmak működése minél inkább ezekre támaszkodik, annál nagyobb a fizikai károkozás kockázata is az MI-vezérelt konfliktusokban.
Az egyes országok már most is javában próbálgatják egymást, az Egyesült Államok például márciusban kerek perec közölte, hogy kritikus infrastruktúráját hónapokig Oroszországhoz köthető támadások érték. Ha megjelennk az autonóm módon védekező és autonóm módon támadó MI-rendszerek, akkor a folyamatok könnyen olyan dinamikát kaphatnak, amely fölött már nem lehet ellenőrzést gyakorolni. A kutató a Nature oldalán egy áprilisi cikkében már figyelmeztetett a "kiberfegyverkezési versenyra", ami nyilvánvalóan gőzerővel zajlik, és amire egyelőre nem létezik semmilyen nemzetközileg elfogadott szabály vagy akár csak államok közti viselkedési norma.
A BI beszámolója alapján a az emberi élet kioltásáról önállóan dönteni képes robotok teljes tiltása egy hasznos kezdeményezés, amit egy valóban létező probléma hívott életre. ugyanakkor csak az MI alkalmazásábó eredő kockázatoknak csak egy apró szegmenséről van szó. A kilátásokról pedig annyit, hogy az a 2004 és 2017 között működő ENSZ-munkacsoport, amely megpróbálta elemezni és kidolgozni az államokra vonatkozó játékszabályokat a a kibertérben, végül ennyi idő alatt sem jutott semmilyen konszenzusra.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak