A mesterséges intelligencia alkalmazása egyebek mellett lehetővé teszi a szervezetek számára, hogy automatizálják a feladatokat, a korábbinál sokkal hatékonyabban nyerjenek ki információkat, és ma már arra is módot ad, hogy a valótól szinte megkülönböztethetetlen médiaelemeket hozzanak létre. És ahogy minden technológiára, úgy az MI-re is igaz, hogy a benne rejló lehetőségeket nem mindig jóhiszeműen használják ki.
Nem meglepő, hogy a mesterséges intelligencia a kiberbűnözők kezében is hathatós eszköz lehet a támadások hatékonyságának javítására és kampányaik kiterjesztésére. Ezzel kapcsolatban a Microsoft amerikai, európai és kínai egyetemi kutatókkal közösen nemrég tett közzé egy tanulmányt, mely az offenzív vagy támadó MI-nek nevezett alkalmazások veszélyeit igyekszik feltárni a célponttá váló szervezetekre nézve.
A kutatás különféle képességeket azonosít, amelyeket a a támadók sikeresen felhasználhatnak, és ezeket súlyosságuk szerint rangsorolva mutatja be. Az ennek alapjául szolgáló felmérésben egyrészt megvizsgálták a támadó mesterséges intelligenciával kapcsolatos kutatásokat, másrészt az olyan szervezetek válaszait az egyre kézzelfoghatóbb problémára, mint amilyen az IBM, az Airbus vagy a Huawei.
Gyorsabb, sikeresebb, és mindenhol ott van
A három fő motivációt azonosít az MI-technológiák ilyen irányú felhasználásában: ezek a lefedettség, a gyorsaság és a sikeresség. A mesterséges intelligencia lehetővé teszi páldául a támadók számára, hogy "megmérgezzék" a gépi tanuló modelleket a betanításukra szolgáló adatkészletek manipulációjával, vagy akár a hitelesítéshez szükséges adatokat lopjon el úgynevezett mellékcsatorna (side channel) elemzések révén.
Ez utóbbi alatt olyan támadástípusokra kell gondolni, amelyek nem közvetlenül az informatikai eszközök valamilyen sebezhetőségére irányulnak, hanem közvetett információkból próbáják összerakni a közvetlen támadásra lehetőséget teremtő adatokat. Ezt jól szemlélteti az a tavaly novemberi kutatás, amely szerint a szakembereknek Intel CPU-k energiafogyasztásának figyelésével sikerült titkosítási kulcsokat megszerezniük.
A fegyverként bevetett mesterséges intelligencia emellett alkalmas lehet sebezhetőségek felderítésére, penetrációs tesztek elvégzésére vagy a hitelesítő adatok szivárgásának felderítésére is. A most megkérdezett szervezetek a maguk részéről az exploitok azonosítását, a pszichológiai manipulációt (social engineering) és az információgyűjtést tartják a legveszélyesebb gyakorlatoknak a támadó MI-vel kapcsolatban.
Különösen aggasztják őket azok az alkalmazások, amikor a mesterséges intelligenciát megszemélyesítések támogatására vetik be. A legnagyobb problémának az adathalász támadások során bevethető deepfake hamisítványokat tartják, illetve a gépi intelligenciára épülő visszafejtést (reverse engineering), amelyet a tulajdonosi algoritmusok feltörésére használnak. Mindezek kapcsán ráadásul attól is tartanak, hogy az MI automatizációs képességei miatt sokkal gyorsabb ütemben zajlanak majd az ilyen kampányok, a célpontok elárasztásával növelve a siker esélyeit.
Aggódnak, de a zsebükre is nagyon vigyáznak
Érdemes megjegyezni, hogy mindezek a félelmek a jelek szerint mégsem igazán ösztönzik a védekezésbe való befektetéseket. A VentureBeat beszámolója az Attestiv vonatkozó felmérését idézi, amelynek alapján a szervezetek kevesebb mint 30 százaléka tesz akármilyen lépéseket a deepfake támadások következményeinek enyhítésére, miközben az ilyen technológiák a védelmi célú fejlesztések ellenére is egyre hatékonyabbak.
A fenti kutatás is arra a következtetésre jut, hogy a belátható jövőben az adathalász kampányok egyre jobban elburjánzanak, ahogy a botok képesek lesznek meggyőző deepfake adathalász hívásokat kezdeményezni. Ugyancsak felfutást várnak az offenzív MI bevetésében az adatgyűjtés, a modellezés, a képzés vagy az értékelés területén, ami a támadási stratégiák látványos változását hozza magával.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak