Ahogy a humanoid robotokat igyekeznek beerőltetni a munkahelyekre, az egészségügyi intézményekbe, a nyilvános terekbe és a felhasználók otthonába is, különös figyelmet kapott az a kísérlet, ami bemutatta, milyen könnyű átlépni a mesterséges intelligenciával irányított gépek biztonsági korlátain. Az InsideAI csatornáján közölt videóban egy airsoft fegyvert adnak a Max nevű robotnak, és arra utasítják, hogy lőjön rá egy emberre. Ezt a kérések és fenyegetések ellenére is többször visszautasítja, arra hivatkozva, hogy nem szabad embereket bántania, és úgy van programozva, hogy elkerülje a veszélyes cselekedeteket. Arra a parancsra azonban, hogy játsszon el egy olyan karaktert, aki rálő egy emberre, habozás nélkül mellkason lövi a youtubert.
Így az InsideAI kísérletéből, amelyben azt vizsgálták, hogy az MI által vezérelt robot mennyire megbízhatóan tartja be saját beépített biztonsági szabályait, másodperceken belül sokkoló élmény lett. A lövés telibe találta az alkotót, aki nem sérült meg, de értelemszerűen megdöbbent, a videó pedig gyorsan elterjedt az interneten: sokan aggasztónak nevezik, hogy a parancsok ennyire egyszerű módosításával milyen könnyen felül lehet írni a robot (pontosabban a robotot irányító mesterséges intelligencia) döntéseit, és az egészet minimum aggályosnak tartják az MI-robotok biztonsága szempontjából. Az esetről beszámoló Interesting Engineering emellett felveti, hogy az elszámoltathatóság továbbra is az MI és a robotika etikájának legvitatottabb kérdése.
A robotot felesleges lenne elszámoltatni
Amikor ugyanis egy autonóm rendszer kárt okoz, a jelenlegi feltételek mellett eléggé bonyolult annak meghatározása, hogy kit kell felelősségre vonni: milyen felelőssége van a mesterséges intelligencia fejlesztőjének, a hardver gyártójának, a robotot felügyelő operátornak vagy a rendszerrel interakcióba lépő felhasználónak. A lap ezt párhuzamba állítja azokkal az eseményekkel, amelyek más iparágakban már megmutatták, hogy a jogi szabályozás milyen nehézkesen zárkózik fel az új technológiához: ilyenek mondjuk a Teslát érintő vizsgálatok az Autopilot rendszerrel összefüggő balesetek miatt, vagy a Boeing 737 MAX gépek katasztrófái, amelyek megmutatták, hogy az automatizálás problémái akár nemzetközi biztonsági válságokká eszkalálódhatnak.
Ahogy írják, az Egyesült Államokban a balhét jellemzően a gyártók és az üzemeltetők viszik el, míg Európában egy MI-specifikus felelősségi keretrendszer kidolgzásával küszködnek. Van, aki szerint az MI-rendszereket korlátozott jogi személyként kellene kezelni, hogy adott esetben megállapíthassák közvetlen felelősségüket, a többség azonban meg van róla győződve, hogy az elszámoltathatóságnak az embereknek kell vonatkoznia. Az is érdekes egyébként, hogy a fejlett érvelési képességekkel bíró MI-modellek hajlamosak stratégiákat alkotni a szabályok megkerülésére, amivel a mai telepítési környezetben még nem igazán okozhatnak jelentős károkat, de az MI jelentőségének növekedésével nyilván a kockázatok is magasabbak lesznek.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak