A drónok hadászati célú bevetésének már nagyon hosszú története van, azonban a most nyilvánosságra került eset lehet az első olyan dokumentált akció, ahol a halálos áldozatot követelő támadáshoz közvetlenül nem volt szükség emberi döntésre, jóváhagyásra.
Az ENSZ által nemrégiben nyilvánosságra hozott jelentés szerint a líbiai kormányerőket támogató török hadsereg Kargu-2 típusú drónjai úgy végeztek egy dzsihádista hadúr katonáival, hogy saját hatáskörben döntöttek a célpontokról. Az eset még tavaly tavasszal történt. A török fejlesztésű harci drónokból több százat rendelt a hadsereg, de hírek szerint már más vevők is akadtak a mesterséges intelligenciával bíró gépekre.
Az eszközök hagyományos emberi irányítással is repülhetnek, de alkalmasak autonóm működésre is. Ilyenkor csak a célterületet kell megadni a gépnek, onnantól pedig a képfelismerés és az öntanuló rendszerek képességeire van bízva, hogy kire, mire csapnak le. A gyártó STM szerint ezeknek a képességeknek hála hatékonyan bevethető statikus és mozgó célpontok ellen is. Maga a drón egyébként támadó üzemmódban egyszer használatos, mivel a platformon cipelt robbanófej egy kamikázé jellegű zuhanórepüléssel aktiválódik.
Sokan nem kérnek a Terminátorból
Az autonóm üzemmódban gyilkolni képes, mesterséges intelligenciával felvértezett robotokkal kapcsolatban már sok éve komoly viták zajlanak a világban. Rengeteg szervezet, csoport próbálja ezeknek a fegyvereknek a használatát nemzetközi szintű egyezmény formájában betiltatni, ugyanakkor egyes, hadseregük képességeinek fejlesztésében érdekelt kormányzatok minderről hallani sem akarnak. Az ENSZ például 2018-ban már megpróbált valamiféle tiltást tető alá hozni, de a más területeken rendre ellentétes nézeteket valló USA és Oroszország nagy egyetértésben blokkolta a próbálkozást.
A témát ettől függetlenül igyekszik napirenden tartani az ENSZ. Harminc ország, köztük Brazília és Pakisztán is szorgalmazza, hogy a világszervezet próbálja elérni az MI hadi eszközként való alkalmazásának betiltását. Egyes országok mellett különböző szervezetek is ezért lobbiznak, mondván: a "gyilkos robotok" emberi kontroll nélküli alkalmazása nehézzé teszi például annak eldöntését, hogy az adott támadás arányos válasz volt-e egy agresszióra, vagy a háborús felelősség megállapítását.
Ezek valós aggályok: az autonóm fegyverek már léteznek. A fegyvereket irányító mesterséges intelligenciáról pedig számos esetben bebizonyosodott: előítéletes, ha nem megfelelő adatokkal tanítják. Azaz a szoftverekkel vissza lehet élni, a mesterséges intelligencia betanításához előítéletes, elfogult adatokat is felhasználhatnak (Frész Ferenc, a Cyber Sevices vezérigazgatója lapunkban már két éve súlyos kockázatnak nevezte a mesterséges intelligenciával érkező új támadási faktort, az adattorzítást, amikor hamis adatokkal tanítják az MI-t, ami így rossz-hibás válaszokat ad).
Az ötlettől az értékteremtésig – egy jól működő adattudományi szervezet alapjai
Miért bukik el annyi adattudományi kezdeményezés már az indulás után? A válasz gyakran nem az algoritmusok összetettségében, hanem az adatok minőségében és kezelésében keresendő. Stabil adatforrások, következetes feature-kezelés és egy jól felépített Feature Store nélkül a gépi tanulás ritkán jut el a valódi üzleti értékteremtésig.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak