Amikor tartott a big data hájpja, akkor az, mostanság meg a mesterséges intelligencia (AI – artificial intelligence) és gépi tanulás (ML – machine learning) lenne a csoda MVP pajzs, ami akkor és attól védi meg rendszereinket, amikor és amitől akarjuk. Csak fel kell mutatni, és a támadók messze futnak. Rossz hír – már akinek hír, és nem volt tisztában vele a kezdetektől –, hogy ez nem igaz, pontosabban így nem igaz. A mesterséges intelligencia alkalmazása a biztonságban nem triviális, olyannyira nem, hogy a Google visszaélésekkel foglalkozó kutatócsoportjának vezetője, Elie Bursztein négyrészes sorozatban próbálja helyre tenni saját oldalán, hol tart most ebben a szakma.
Elie Bursztein alapállítása minden általa is azonosított probléma ellenére az, hogy az AI és az ML kulcsfontosságú a visszaélések vagy támadások elleni védekezésben. A szakember a netes visszaélést itt sokkal szélesebb értelemben használja: a trollkodás, a sértő, fenyegető tartalmak, kommentek szűrése is ide tartozik.
A hagyományos védelmek nehézségei
Három okra vezeti vissza Bursztein a hagyományos védelmek problémáit: 1. megnőttek a felhasználói elvárások (már egy spamtől is úgy érzik, a rendszer képtelen megvédeni őket); 2. elképesztő mennyiségű és típusú felhasználói tartalom terítődik a neten, amihez jól skálázható rendszerek kellenek; 3. egyre kifinomultabbak a támadások.
Ebben a helyzetben kézenfekvő bevetni az AI-t. Kulcsfontosságú az olyan védelmi struktúrák kiépítéséhez, melyek megfelelnek a felhasználóik elvárásainak, és hatékonyan veszik fel a küzdelmet az egyre kifinomultabb támadásokkal.
Az AI képes általánosítani a tanítására felhasznált adatokat (általánosítás), ezáltal azonosítani tud új típusú támadásokat (időbeli extrapoláció), és egyszerre tud kezelni sokféle információt (adatok maximalizálása). Bursztein úgy fogalmaz, hogy az AI és a mélytanulás segít elmozdulni a több adat – több probléma szemlélettől a több adat – jobb védelem szemlélet felé.
Jól szemlélteti ezt a Gmail spamszűrője, amely hetente százmilliárdnyi emailt vizsgál át ahhoz, hogy hatékonyan működjön. Abban, hogy jelenleg 99,9 százalékos pontossággal tud működni, nagy szerepe van a mélytanulásnak.
A tanulás korlátai
A mesterséges intelligencia azonban nem tud magától semmit. Tanítani kell. Ráadásul a különféle visszaélések, csalások esetében valami olyasmit kell megtanítani az AI-nak, ami aktívan törekszik arra, hogy elleplezze valódi mibenlétét. Az sem könnyít a helyzeten, hogy míg az AI-t hagyományosan statikus problémára alkalmazzák, itt maga a probléma is folyamatosan változik.
Bursztein a képet osztályozásának problémájával példálózik. Ha sikerül olyan rendszert fejleszteni, ami száz százalékos biztonsággal, bármely fotón, videón, festményen stb. felismeri a macskát, akkor a probléma egyszer s mindenkorra meg van oldva. Össze kell gyűjteni sokféle macskáról képet, és a rendszer azok alapján megtanulja azonosítani az állatot.
Ez a cikk független szerkesztőségi tartalom, mely a T-Systems Magyarország támogatásával készült. Részletek »
A biztonság esetében ez nem működik, mert a biztonság macskája mindig más és más alakban jelenik meg, sokszor nem is emlékeztet az előző megjelenési formájára. Azaz a támadások fejlődnek, amivel párhuzamosan a múltbeli támadásokról rögzített képek elavulnak. Éppen ezért be kell építeni a folyamatos "átképzést" is a modellbe.
Komoly problémát okoz a helyes taxonómia megtalálása is. Az információkról ugyanis minden esetben dönteni kell, hogy az jó vagy rossz. Ezzel még az ember is küzd, hiszen rengeteg a határeset, melynek megítélése nagyon sok körülménytől függ. Nem mindegy például, hogy a "Meg foglak ölni! kijelentés egy lövöldözős multiplayer videojátékban hangzik el, vagy esetleg olyan körülmények között, ahol valódi fizikai veszélyre utal. Az értékelés tehát a kulturális környezettől, a konkrét szituációtól sőt a magának az egyénnek a kulturális beállítottságától is függ.
Két macskát könnyebb beazonosítani, mint a kép alapján megállapítani, hogy mind a négy oldal adathalászathoz készült
Ebből következik például, hogy kontextuális modellekre van szükség, ráadásul olyanokra, melyek minden egyes felhasználó egyéni világlátását, preferenciáit, toleranciaszintjét stb. is figyelembe veszik.
Az AI is célponttá válik
Azzal is számolni kell, hogy a mesterséges intelligencia is célponttá válik. Ilyen támadási lehetőség, hogy rosszindulatú inputokat próbálnak beiktatni az AI tanítási folyamatába, hogy azt jónak értelmezze, és később a támadás során se szűrje ki. De érheti támadás magát az adatmodellt is.
Ez utóbbi rendkívül érzékeny terület. Még belegondolni is rossz, mi történne, ha egy orvosdiagnosztikában, például korai stádiumú rák kimutatására használatos AI algoritmus például ilyen adatmérgezés vagy más támadás miatt rosszul működne.
Akit érdekel Elie Bursztein teljes gondolatmenete, csak egyet kell kattintania, és az első poszt elején a sorozat további három részének linkjeit is megtalálja.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak