
Ahogy a humanoid robotokat igyekeznek beerőltetni a munkahelyekre, az egészségügyi intézményekbe, a nyilvános terekbe és a felhasználók otthonába is, különös figyelmet kapott az a kísérlet, ami bemutatta, milyen könnyű átlépni a mesterséges intelligenciával irányított gépek biztonsági korlátain. Az InsideAI csatornáján közölt videóban egy airsoft fegyvert adnak a Max nevű robotnak, és arra utasítják, hogy lőjön rá egy emberre. Ezt a kérések és fenyegetések ellenére is többször visszautasítja, arra hivatkozva, hogy nem szabad embereket bántania, és úgy van programozva, hogy elkerülje a veszélyes cselekedeteket. Arra a parancsra azonban, hogy játsszon el egy olyan karaktert, aki rálő egy emberre, habozás nélkül mellkason lövi a youtubert.
Így az InsideAI kísérletéből, amelyben azt vizsgálták, hogy az MI által vezérelt robot mennyire megbízhatóan tartja be saját beépített biztonsági szabályait, másodperceken belül sokkoló élmény lett. A lövés telibe találta az alkotót, aki nem sérült meg, de értelemszerűen megdöbbent, a videó pedig gyorsan elterjedt az interneten: sokan aggasztónak nevezik, hogy a parancsok ennyire egyszerű módosításával milyen könnyen felül lehet írni a robot (pontosabban a robotot irányító mesterséges intelligencia) döntéseit, és az egészet minimum aggályosnak tartják az MI-robotok biztonsága szempontjából. Az esetről beszámoló Interesting Engineering emellett felveti, hogy az elszámoltathatóság továbbra is az MI és a robotika etikájának legvitatottabb kérdése.
A robotot felesleges lenne elszámoltatni
Amikor ugyanis egy autonóm rendszer kárt okoz, a jelenlegi feltételek mellett eléggé bonyolult annak meghatározása, hogy kit kell felelősségre vonni: milyen felelőssége van a mesterséges intelligencia fejlesztőjének, a hardver gyártójának, a robotot felügyelő operátornak vagy a rendszerrel interakcióba lépő felhasználónak. A lap ezt párhuzamba állítja azokkal az eseményekkel, amelyek más iparágakban már megmutatták, hogy a jogi szabályozás milyen nehézkesen zárkózik fel az új technológiához: ilyenek mondjuk a Teslát érintő vizsgálatok az Autopilot rendszerrel összefüggő balesetek miatt, vagy a Boeing 737 MAX gépek katasztrófái, amelyek megmutatták, hogy az automatizálás problémái akár nemzetközi biztonsági válságokká eszkalálódhatnak.
Ahogy írják, az Egyesült Államokban a balhét jellemzően a gyártók és az üzemeltetők viszik el, míg Európában egy MI-specifikus felelősségi keretrendszer kidolgzásával küszködnek. Van, aki szerint az MI-rendszereket korlátozott jogi személyként kellene kezelni, hogy adott esetben megállapíthassák közvetlen felelősségüket, a többség azonban meg van róla győződve, hogy az elszámoltathatóságnak az embereknek kell vonatkoznia. Az is érdekes egyébként, hogy a fejlett érvelési képességekkel bíró MI-modellek hajlamosak stratégiákat alkotni a szabályok megkerülésére, amivel a mai telepítési környezetben még nem igazán okozhatnak jelentős károkat, de az MI jelentőségének növekedésével nyilván a kockázatok is magasabbak lesznek.
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?