Újabb kísérletben szemléltették, hogy a mesterséges intelligencia nem gondolkodik, és így különbséget sem tud tenni a valódi és a hamis dolgok között, ami elég aggasztó a technológia küszöbön álló alkalmazásait illetően.

Ahogy a humanoid robotokat igyekeznek beerőltetni a munkahelyekre, az egészségügyi intézményekbe, a nyilvános terekbe és a felhasználók otthonába is, különös figyelmet kapott az a kísérlet, ami bemutatta, milyen könnyű átlépni a mesterséges intelligenciával irányított gépek biztonsági korlátain. Az InsideAI csatornáján közölt videóban egy airsoft fegyvert adnak a Max nevű robotnak, és arra utasítják, hogy lőjön rá egy emberre. Ezt a kérések és fenyegetések ellenére is többször visszautasítja, arra hivatkozva, hogy nem szabad embereket bántania, és úgy van programozva, hogy elkerülje a veszélyes cselekedeteket. Arra a parancsra azonban, hogy játsszon el egy olyan karaktert, aki rálő egy emberre, habozás nélkül mellkason lövi a youtubert.
 

 

Így az InsideAI kísérletéből, amelyben azt vizsgálták, hogy az MI által vezérelt robot mennyire megbízhatóan tartja be saját beépített biztonsági szabályait, másodperceken belül sokkoló élmény lett. A lövés telibe találta az alkotót, aki nem sérült meg, de értelemszerűen megdöbbent, a videó pedig gyorsan elterjedt az interneten: sokan aggasztónak nevezik, hogy a parancsok ennyire egyszerű módosításával milyen könnyen felül lehet írni a robot (pontosabban a robotot irányító mesterséges intelligencia) döntéseit, és az egészet minimum aggályosnak tartják az MI-robotok biztonsága szempontjából. Az esetről beszámoló Interesting Engineering emellett felveti, hogy az elszámoltathatóság továbbra is az MI és a robotika etikájának legvitatottabb kérdése.

A robotot felesleges lenne elszámoltatni

Amikor ugyanis egy autonóm rendszer kárt okoz, a jelenlegi feltételek mellett eléggé bonyolult annak meghatározása, hogy kit kell felelősségre vonni: milyen felelőssége van a mesterséges intelligencia fejlesztőjének, a hardver gyártójának, a robotot felügyelő operátornak vagy a rendszerrel interakcióba lépő felhasználónak. A lap ezt párhuzamba állítja azokkal az eseményekkel, amelyek más iparágakban már megmutatták, hogy a jogi szabályozás milyen nehézkesen zárkózik fel az új technológiához: ilyenek mondjuk a Teslát érintő vizsgálatok az Autopilot rendszerrel összefüggő balesetek miatt, vagy a Boeing 737 MAX gépek katasztrófái, amelyek megmutatták, hogy az automatizálás problémái akár nemzetközi biztonsági válságokká eszkalálódhatnak.

Ahogy írják, az Egyesült Államokban a balhét jellemzően a gyártók és az üzemeltetők viszik el, míg Európában egy MI-specifikus felelősségi keretrendszer kidolgzásával küszködnek. Van, aki szerint az MI-rendszereket korlátozott jogi személyként kellene kezelni, hogy adott esetben megállapíthassák közvetlen felelősségüket, a többség azonban meg van róla győződve, hogy az elszámoltathatóságnak az embereknek kell vonatkoznia. Az is érdekes egyébként, hogy a fejlett érvelési képességekkel bíró MI-modellek hajlamosak stratégiákat alkotni a szabályok megkerülésére, amivel a mai telepítési környezetben még nem igazán okozhatnak jelentős károkat, de az MI jelentőségének növekedésével nyilván a kockázatok is magasabbak lesznek.

Konzumer tech

A való életben is gyökeret verhet az MI-robotok jellegzetes viselkedése

Az online teret mára elárasztották a mesterséges intelligenciával generált, jellegzetes nyelvi mintákat tartalmazó szövegek, a szakértők pedig arra figyelmeztetnek, hogy ez az emberek valós beszédmódját, ezen keresztül pedig a gondolkodásukat is befolyásolhatja.
 
A biztonság ’balra tolódása’ az alkalmazásfejlesztésben nem csak technikai kérdés. A DevSecOps-elvek érvényesüléséhez az IT-szervezet működését és más területekhez való viszonyát is újra kell szabni.

a melléklet támogatója a Clico

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.