Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.

Ha valaki nem is követi napi szinten a kiberbiztonsági incidenseket, az olyan témákat akkor is nehéz elkerülnie, mint a Nagyszabású támadás rázta meg az OpenAI szolgáltatásait; vagy: Éveken belül megjelenhetnek az MI-vel tervezett biológiai fegyverek. Egyre gyakoribbak ugyanis a sajtóban azok a cikkek, melyek a mesterségesintelligencia-rendszerek elleni vagy a segítségükkel végrehajtott támadásokról szólnak. De örvendetesen szaporodnak a híradások olyan IT-biztonsági megoldásokról is, melyekben kulcsszerepet kap valamilyen speciális MI-modell.

Az MI rossz kezekben életveszélyes fegyver

A Google egyik vezető kutatója, a DeepMind környékén dolgozó Elie Bursztein már 2018-ban cikksorozatban dolgozta fel a probléma mindkét aspektusát (cikkünk címe a sorozatáról készült ismertetőnket kívánja felidézni). Szerzőként-társszerzőként azóta is számos tanulmányt jegyez a kérdésről, a legutóbbi, társszerzőként jegyzett munkája idén tavasszal jelent meg az Arxiv.org-on.

Tegyük hozzá: nem Bursztein találta fel a meleg vizet. Ám az is fontos tapasztalat, hogy egy álláspont érvényesülését erősen befolyásolja, hogy kimondójának milyen az üléspontja. Azaz egyáltalán nem mindegy, ki hívja fel a szakmai közösség figyelmét olyan evindenciákra, hogy például minden pozitív célokra fejlesztett eszköznek, így a mesterséges intelligenciának is van árnyoldala. Jelen témánkra fordítva: ha az MI hatékonyan támogatja a védelmet, akkor valószínűleg a támadásban is jól (sőt, a külső szabályok hiánya miatt jobban!) használható.

Mit is várunk egy mesterséges intelligenciától? Azt, hogy a lehető legtökéletesebben szimulálja az emberi intelligencia működését: gondolkodjon úgy, ahogy mi, ugyanúgy hozzon döntéseket és cselekedjen – már ha utóbbi kivitelezhető (pl. egy bot/robot esetében). A cél eléréséhez hatalmas mennyiségű képzési adatra van szükség, amiből a modell megtanulja, hogy mi alapján és milyen kimenetet adjon. Tehát véd, ha arra tanítják – de támad, ha az az elvárás.

Burszteinék fentebb említett idei tanulmányában például egy olyan mély tanuláson (deep learning) alapuló rendszer elméleti alapjait rakják le, amellyel kriptográfiai csipek tervezésénél lehet kiszűrni a sérülékenységeket. Egy ilyen rendszer azonban a támadóknak szintén segít – lényegében ugyanazokkal az eszközökkel – a gyenge pontok feltárásában.

Persze, ahogy sorozatunk első részében röviden utaltunk rá, az MI ennél sokrétűbb eszköz, és sajnos ez a sokrétűsége a támadók kezében is érvényesül. Már most látható: több támadási vektor meríthet új ötleteket az MI-alapú eszközökből.

A deepfake-től az adatmérgezésig

A deepfake-ről valószínűleg mindenki hallott, hiszen a fogalom egyre gyakrabban szerepel politikai hírekben. Vannak elhíresült és közismert "alkotások" is, mint például Ferenc pápa pufidzsekiben. A deepfake "csupán" manipulálni akarja a tartalomfogyasztót azáltal, hogy hamis vizuális- vagy audiotartalmat az MI segítségével hitelesnek tüntet fel. Sokszor abban is segít, hogy ez a megtévesztő tartalom virálissá váljon, és mihamarabb szétterjedjen az online térben. A végső cél leginkább a félelemkeltés vagy elbizonytalanítás.

Az ilyen tartalmak előállításához ma már nem kell komolyabb infrastruktúra vagy tudás sem. A Tencent például tavaly olyan szolgáltatást indított, ami 145 dollárért egy nap alatt generál élethű botot, amihez a pénz mellett csak 3 perc videót és 100 mondatnyi élő szöveget kell feltölteni alapanyagként.

A deepfake egyre fontosabb szerepet játszik a social engineeringben, amelyhez az MI ráadásul új és teljes sémákat képes létrehozni. A tavaly elhunyt legendás hekkernek, Kevin Mitnicknek még hosszas tervezésre és rengeteg manuális munkára (telefonálás, e-mailek szerkesztése) volt szüksége, hogy eljusson egy rendszer gyenge pontjáig. Ma ugyanez az MI segítségével pillanatok alatt feltárható. Olyan komplett támadási sémákat lehet vele előállítani, melyek begyűjtik a manipulációhoz szükséges információkat, majd automatikusan felépítik és végrehajtják a támadást. Ráadásul akár egy több ezer főt foglalkoztató szervezet minden egyes alkalmazottjának lehet egy időben személyre szabott, hatékony üzeneteket küldeni. Ugyanazt, amit Mitnick hetek, esetleg hónapok alatt tudott volna kivitelezni, az MI perces időkeretben megoldja.

Még sérülékenyebbeké válnak a jelszavak. Ez a védelmi vonal amúgy sem túl stabil: évről évre kiderül, hogy hemzsegnek az online szolgáltatásokon a kevesebb mint egy másodperc alatt feltörhető jelszavak, mint az '123456', az 'admin', a 'password' és társaik. Ám az MI ezeknél fogósabb jelszavakat is gyorsan vissza tud fejteni. Bizonyították például, hogy a Generative Adversarial Network (GAN) metódussal képzett MI maximum pár perc alatt képes feltörni az átlagos bonyolultságú jelszavak jelentős részét. A módszer lényege, hogy két neurális hálózatot használnak: az egyiket generátorként (valamilyen információ létrehozója), a másikat pedig diszkriminátorként (az információ értékelője) használják. Utóbbi azt próbálja meghatározni, hogy a való világból származó minták hogyan viszonyulnak a másik hálózat által előállított mintákhoz, a visszacsatolás révén pedig az előbbi hálózat folyamatosan tanul, és egyre jobb eredményekre lesz képes.

Végül ejtsünk szót a talán legveszélyesebb támadási formáról, amivel lehet támadni közvetlenül az MI-t, illetve azon keresztül, közvetve azt, aki az MI-t használja vagy azzal valamilyen módon interakcióba kerül: az adatmérgezésről (data poisoning). Ha a támadók képesek módosítani, azaz megmérgezni a képzési adatokat, azzal befolyásolják az algoritmus által adott kimeneteket. Ha ugyanis rossz a bemenet, rossz lesz a kimenet is.

Kísérletekkel bizonyították, hogy a neuális hálózatok működését speciális zajmintákkal úgy lehet befolyásolni, hogy bizonyosan téves kimenetet adjanak. Egy MI-re épülő önvezető rendszert például rá lehet venni, hogy figyelmen kívül hagyjon vagy egy irányba tévesen értelmezzen bizonyos vizuális információkat, például egy közlekedési lámpát (a pirosan következetesen zöldnek lássa).

Az adatmérgezés ezért különösen alattomos támadási forma, mert detektálása nehéz és időigényes. Emiatt felfedezéséig súlyos károkat okozhat.

A védelem mesterséges intelligenciája

Hogyan reagálnak erre a biztonsági megoldásszállítók? Természetesen MI-alapú védelmi megoldásokkal (lásd a bevezetőben említett tanulmányt).

Abban egyelőre tág határok között mozognak a becslések, hogy milyen tempóban nő az MI-alapú védelmi eszközök piaca. A Statista szerint tavaly 24,3 milliárd dollár volt, de 2026-ra duplájára nő, 2030-ra pedig eléri a 134 milliárdot. A Markets and Markets 2023-ban 22,4 milliárdosra becsülte ezt a piaci szegmenst, ami a kutatói szerint 2028-ig 61 milliárdra nő. A Grand View Research csak 20,5 milliárdosra becsülte a szegmens múlt évi méretét, de 2028-ra már 60, míg az évtized végére 94 milliárdot jósol.

Abban azonban a három előrejelzés egyetért, hogy kiberbiztonsági piac is az MI-alapú megoldások irányába mozdul el. De nem fölöslegesség teszi a hagyományos eszközöket (vírusvédelem, DLP, csalásdetektálás, behatolásérzékelés, hozzáférés-kezelés, kockázatkezelés stb.), hanem kiegészíti, támogatja azokat. A mesterséges intelligenciának ugyanis van egy nagy előnye, ami a védelemben is óriási segítség: hatalmas adathalmazokat képes gyorsan elemezni, és azokban különféle mintázatokat azonosítani. Ez a kibervédelemben mindig kulcsfontosságú képesség volt (gondoljunk csak a logokra és a logelemzésre).

A biztonsági megoldásszállítók jellemzően négy területen várnak előrelépést az MI integrálásától.

A fenyegetésészlelés területén az MI-vel megvalósíthatónak tűnik egy olyan hatékony Zero Trust környezet, amely a menedzselt és nem menedzselt eszközök esetében is magas szintű biztonságot garantál. A valós idejű védelemben szintlépést hozhatnak az MI-alapú SOC (security operations center) platformok. De javíthat a kockázatkezelésen és a többfelhős környezet védelmén is.

És hogy mit jelent majd ez a gyakorlatban? Az MI-vel felvértezett biztonsági megoldások a gyorsabban és pontosabban azonosítják a támadásra utaló jeleket, értékelik azok kockázatait, és – állítólag – kevesebb fals pozitív eredményt adnak, mint a hagyományos rendszerek (illetve azok alapján az ember). A forintosítható haszon pedig a magasabb szintre emelkedő üzletmenet-folytonosság.

Az MI még olyan területen is komoly támogatás lehet, mint a biztonságtudatossági képzések. Olyan social engineering támadásokat lehet szimulálni vele, amelyek segítenek a biztonsági csapatoknak azonosítani a potenciális sebezhetőségeket.

Ez a cikk független szerkesztőségi tartalom, mely a Clico Hungary támogatásával készült. Részletek »

Biztonság

Megint hirdetésben froclizza a Samsung az Apple-t

A dél-koreai óriásnál szinte már tradíció, hogy reklámok formájában mutatnak rá legfőbb riválisuk egy-egy gyenge pontjára.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.