A drónok hadászati célú bevetésének már nagyon hosszú története van, azonban a most nyilvánosságra került eset lehet az első olyan dokumentált akció, ahol a halálos áldozatot követelő támadáshoz közvetlenül nem volt szükség emberi döntésre, jóváhagyásra.
Az ENSZ által nemrégiben nyilvánosságra hozott jelentés szerint a líbiai kormányerőket támogató török hadsereg Kargu-2 típusú drónjai úgy végeztek egy dzsihádista hadúr katonáival, hogy saját hatáskörben döntöttek a célpontokról. Az eset még tavaly tavasszal történt. A török fejlesztésű harci drónokból több százat rendelt a hadsereg, de hírek szerint már más vevők is akadtak a mesterséges intelligenciával bíró gépekre.
Az eszközök hagyományos emberi irányítással is repülhetnek, de alkalmasak autonóm működésre is. Ilyenkor csak a célterületet kell megadni a gépnek, onnantól pedig a képfelismerés és az öntanuló rendszerek képességeire van bízva, hogy kire, mire csapnak le. A gyártó STM szerint ezeknek a képességeknek hála hatékonyan bevethető statikus és mozgó célpontok ellen is. Maga a drón egyébként támadó üzemmódban egyszer használatos, mivel a platformon cipelt robbanófej egy kamikázé jellegű zuhanórepüléssel aktiválódik.
Sokan nem kérnek a Terminátorból
Az autonóm üzemmódban gyilkolni képes, mesterséges intelligenciával felvértezett robotokkal kapcsolatban már sok éve komoly viták zajlanak a világban. Rengeteg szervezet, csoport próbálja ezeknek a fegyvereknek a használatát nemzetközi szintű egyezmény formájában betiltatni, ugyanakkor egyes, hadseregük képességeinek fejlesztésében érdekelt kormányzatok minderről hallani sem akarnak. Az ENSZ például 2018-ban már megpróbált valamiféle tiltást tető alá hozni, de a más területeken rendre ellentétes nézeteket valló USA és Oroszország nagy egyetértésben blokkolta a próbálkozást.
A témát ettől függetlenül igyekszik napirenden tartani az ENSZ. Harminc ország, köztük Brazília és Pakisztán is szorgalmazza, hogy a világszervezet próbálja elérni az MI hadi eszközként való alkalmazásának betiltását. Egyes országok mellett különböző szervezetek is ezért lobbiznak, mondván: a "gyilkos robotok" emberi kontroll nélküli alkalmazása nehézzé teszi például annak eldöntését, hogy az adott támadás arányos válasz volt-e egy agresszióra, vagy a háborús felelősség megállapítását.
Ezek valós aggályok: az autonóm fegyverek már léteznek. A fegyvereket irányító mesterséges intelligenciáról pedig számos esetben bebizonyosodott: előítéletes, ha nem megfelelő adatokkal tanítják. Azaz a szoftverekkel vissza lehet élni, a mesterséges intelligencia betanításához előítéletes, elfogult adatokat is felhasználhatnak (Frész Ferenc, a Cyber Sevices vezérigazgatója lapunkban már két éve súlyos kockázatnak nevezte a mesterséges intelligenciával érkező új támadási faktort, az adattorzítást, amikor hamis adatokkal tanítják az MI-t, ami így rossz-hibás válaszokat ad).
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak