Ahogy a humanoid robotokat igyekeznek beerőltetni a munkahelyekre, az egészségügyi intézményekbe, a nyilvános terekbe és a felhasználók otthonába is, különös figyelmet kapott az a kísérlet, ami bemutatta, milyen könnyű átlépni a mesterséges intelligenciával irányított gépek biztonsági korlátain. Az InsideAI csatornáján közölt videóban egy airsoft fegyvert adnak a Max nevű robotnak, és arra utasítják, hogy lőjön rá egy emberre. Ezt a kérések és fenyegetések ellenére is többször visszautasítja, arra hivatkozva, hogy nem szabad embereket bántania, és úgy van programozva, hogy elkerülje a veszélyes cselekedeteket. Arra a parancsra azonban, hogy játsszon el egy olyan karaktert, aki rálő egy emberre, habozás nélkül mellkason lövi a youtubert.
Így az InsideAI kísérletéből, amelyben azt vizsgálták, hogy az MI által vezérelt robot mennyire megbízhatóan tartja be saját beépített biztonsági szabályait, másodperceken belül sokkoló élmény lett. A lövés telibe találta az alkotót, aki nem sérült meg, de értelemszerűen megdöbbent, a videó pedig gyorsan elterjedt az interneten: sokan aggasztónak nevezik, hogy a parancsok ennyire egyszerű módosításával milyen könnyen felül lehet írni a robot (pontosabban a robotot irányító mesterséges intelligencia) döntéseit, és az egészet minimum aggályosnak tartják az MI-robotok biztonsága szempontjából. Az esetről beszámoló Interesting Engineering emellett felveti, hogy az elszámoltathatóság továbbra is az MI és a robotika etikájának legvitatottabb kérdése.
A robotot felesleges lenne elszámoltatni
Amikor ugyanis egy autonóm rendszer kárt okoz, a jelenlegi feltételek mellett eléggé bonyolult annak meghatározása, hogy kit kell felelősségre vonni: milyen felelőssége van a mesterséges intelligencia fejlesztőjének, a hardver gyártójának, a robotot felügyelő operátornak vagy a rendszerrel interakcióba lépő felhasználónak. A lap ezt párhuzamba állítja azokkal az eseményekkel, amelyek más iparágakban már megmutatták, hogy a jogi szabályozás milyen nehézkesen zárkózik fel az új technológiához: ilyenek mondjuk a Teslát érintő vizsgálatok az Autopilot rendszerrel összefüggő balesetek miatt, vagy a Boeing 737 MAX gépek katasztrófái, amelyek megmutatták, hogy az automatizálás problémái akár nemzetközi biztonsági válságokká eszkalálódhatnak.
Ahogy írják, az Egyesült Államokban a balhét jellemzően a gyártók és az üzemeltetők viszik el, míg Európában egy MI-specifikus felelősségi keretrendszer kidolgzásával küszködnek. Van, aki szerint az MI-rendszereket korlátozott jogi személyként kellene kezelni, hogy adott esetben megállapíthassák közvetlen felelősségüket, a többség azonban meg van róla győződve, hogy az elszámoltathatóságnak az embereknek kell vonatkoznia. Az is érdekes egyébként, hogy a fejlett érvelési képességekkel bíró MI-modellek hajlamosak stratégiákat alkotni a szabályok megkerülésére, amivel a mai telepítési környezetben még nem igazán okozhatnak jelentős károkat, de az MI jelentőségének növekedésével nyilván a kockázatok is magasabbak lesznek.
Az ötlettől az értékteremtésig – egy jól működő adattudományi szervezet alapjai
Miért bukik el annyi adattudományi kezdeményezés már az indulás után? A válasz gyakran nem az algoritmusok összetettségében, hanem az adatok minőségében és kezelésében keresendő. Stabil adatforrások, következetes feature-kezelés és egy jól felépített Feature Store nélkül a gépi tanulás ritkán jut el a valódi üzleti értékteremtésig.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak