Ha minden jól megy, a valóságban senkinek sem kell majd visszajönni a jövőből, hogy megállítson egy gyilkos, szintén időutazó robotot. Többek között a Terminátor eseményeit is igyekeznek közös erőfeszítéssel a sci-fi kategóriában tartani azok a tudósok, mérnökök, iparági szereplők, akik a héten aláírásukkal látták el az emberi élet kioltására alkalmas autonóm eszközök fejlesztésének teljes betiltását szorgalmazó dokumentumot.
Soha, semmilyen körülmények között
A héten Stockholmban rendezett nemzetközi mesterséges intelligenciával foglalkozó konferencián született meg az a kiállás, amelyet 90 országból, 150 céget képviselő szakember látott el kézjegyével. A több mint 2400 aláíró azt szeretné globálisan elérni, hogy pusztán kódsorok futtatásával soha, semmilyen körülmények között ne fordulhasson elő, hogy egy önjáró rendszer egy emberélet kioltásáról dönthessen.
A dekrétum arra kéri a világ kormányait, tudományos és iparági szereplőit, hogy erős nemzetközi normák, szabályok és törvények felállításával, alkossanak olyan környezetet, amelyben nincs helyük gyilkolásra képes autonóm fegyvereknek. Az aláírók szerint az ilyen, mesterséges intelligenciával támogatott eszközöknek egy kalap alá kell esniük olyan tiltott és megvetett dolgokkal, mint például a biológiai fegyverek.
A konferenciát szervező Future of Life Institute értelmezése alapján gyilkos robotnak tekinthető bármilyen önműködő rendszer, amely képes beazonosítani, becélozni és megölni egy embert úgy, hogy közben sehol sincs beiktatva a procedúrába emberi szereplő, aki jóváhagyná mindezt. Ilyen értelemben a bombákkal szerelt katonai drónok például nem esnek ebbe a kategóriába, mint ahogy azok a védelmi rendszerek sem, amelyek önműködően képesek más fegyvereket, például rakétákat kiiktatni.
Az aláírók között találjuk például a Google Deepmind, az XPRIZE Fundation, a ClearPath Robotics/OTTO Motors munkatársait, de feltűnik a hírekbe vad ötleteivel és meglepő húzásaival gyakran bekerülő Tesla-vezér neve is. Utóbbi egyáltalán nem meglepő, hiszen Elon Musk szinte pontosan egy éve igen erősen fogalmazott a mesterséges intelligenciával kapcsolatban. A technológiát a civilizáció legnagyobb kockázati tényezőjének nevezte, amivel az emberiségnek az elkövetkező évtizedekben szembe kell néznie.
Alulról jövő kezdeményezések
Mivel a kormányzatok nem sietnek a korlátozások, biztonsági szűrők bevezetésével, így ezek a törekvések egyelőre szinte mindig alulról szerveződnek és gyakran célt is érnek. Erre volt példa a közelmúltban a Korea Advanced Institute of Science and Technology (KAIST) esete. A műszaki intézet ellen bojkottot hirdetett meg a tudományos világ, miután kiderült, hogy katonai célú autonóm őrrobotokat fejlesztenek. Az akció hatására a KAIST visszavonulót fújt.
Nagyjából két hónapja hasonló forgatókönyve lett egy ügynek a Google-nél is. A cég több mint 4000 munkavállalója írta alá azt a petíciót, amely a védelmi minisztériummal folytatott közös projekt beszüntetését tűzte zászlajára. A vezetőség végül úgy döntött, meghajlik a közös akarat előtt, és nem hosszabbítja meg a jövő márciusban lejáró együttműködést. Az esettől nyilván nem függetlenül pár nappal később a cég vezetője egy blogbejegyzésben igyekezett tisztázni a Google hozzáállását a mesterséges intelligenciához.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak