A 80-as és 90-es évek MI-télnek (AI winter) nevezett időszakát követő, lassú fejlődés az utóbbi években látványosan felgyorsult, a hardver- és szoftverfejlesztés áttöréseinek köszönhetően pedig a mesterséges intelligencia alkalmazása a szemünk előtt válik hétköznapi gyakorlattá. Ennek nyilvánvalóan egy nagy csomó pozitív hozadéka van, de célzott adathalász kampányoktól a megfigyelőrendszerekig már azok a felhasználások is megjelentek, amelyek minimum aggasztóak az MI-technológiák lehetőségeit tekintve.
A University College London (UCL) kutatói nemrég egy hosszú listát tettek közzé azokkal a fenyegetésekkel kapcsolatban, amelyeket a mesterséges intelligencia és a hozzá kapcsolódó technika jelenthet a belátható jövőben. Bár azt maguk is kiemelik, hogy a lista az eddigi tapasztalatokra és ismeretekre épül, ennél fogva spekulatív, de arra mindenképpen alkalmas, hogy felhívja a figyelmet a megalapozott aggodalmakra és a lehetséges következményekre.
A kutatók különösen aggasztónak tartják a skálázható (scalable) fenyegetéseket, amelyek a társadalom egészére nézve sokkal kártékonyabbak, mint az egyéneknek külön-külön okozott károk. Erre példa az online csatornákon zajló dezinformációs kampányok megjelenése, ami összességében a nyugati társadalmak alapvető normáit veszélyeztetik. Bár a most értékelt kockázatok egy részéről kiderülhet, hogy a korlátozott ismeretekből fakadnak, vagy természetüknél fogva időlegesek lesznek, az MI-alkalmazásokat mégis ilyen összefüggésekben érdemes vizsgálni – különösen, hogy a jövő bűnözői is ezt fogják tenni.
Könnyen elveszítjük az irányítást
A listán szereplő jelenségeket több szempontból is osztályozták, és sorolták be alacsony, közepes és magas fokozatú kategóriákba. Egyrészt meghatározták a károkozás, a bűnözői profitábilitás, a hozzáférhetőség és a védekezés lehetőségeinek aspektusait, ezeken belül is figyelembe véve az olyan szempontokat is, mint a járulékos károk, a kompexitás vagy a felhasználói viselkedés változása. A négy alapvető faktor közül az első kettő az egyes bűncselekmények következményeinek súlyát, a második kettő pedig az akciók várható sikerességét értékeli.
A legmagasabb, a magas fokozatú kategóriába összesen hatféle bűncselekményt soroltak. Az első az egyes emberek audiovizuális megszemélyesítése, mint amilyenek a sokat emlegetett deepfake technológiák. Ezek közvetlen kockázata természetesen a valóditól meg nem különböztethető hamisítványok felhasználása – itt a nagyszabású bűntettek helyett elég csak végiggondolni, hogy az "unokázós csalók" mire mehetnének az MI-vezérelt, totál élethű megszemélyesítésekkel. Nem kevésbé aggasztóak azonban a közvetett veszélyek sem, amikor mondjuk egy deepfake elem véletlen azonosítása teljes körűen megkérdőjelezi az egyes ügyekben összegyűjtött bizonyítékok hitelességét.
Az önvezető járművek és az MI-vezérelt fegyverrendszerek kombinációja talán nem is igényel részletesebb magyarázatot, mint ahogy a személyre szabott adathalászat távlatai is ijesztőek a mesterséges intelligencia egyre nagyobb fokú bevonódásával. Ezeknél kevésbé nyilvánvaló az MI-rendszerek diszrupciójának kockázta: ahogy a kormányzati, üzleti vagy akár otthoni folyamatok irányításában is egyre fontosabb (sőt esetenként nélkülözhetetlen) szerep hárul a mesterséges intelligenciára, így az ezek ellen irányuló támadások akár a közművek, a pénzügyi vagy logisztikai infrastuktúra összeomlasztására is alkalmasak. Általánosságban pedig itt is igaz, hogy minél összetettebb egy rendszer, annál nehezebb hatékonyan megvédeni.
Jön a bűnözés-mint-szolgáltatás
A mesterséges intelligencia segítségével tervezett és terjesztett dezinformáció ma már nem újdonság, de hatékonyságát, jelenlétét és specializáltságát az MI fejlődése is újabb szintekre emelheti. Ugyanez igaz a különféle zsarolási módokra, amelyek hatékonyságukban, elsősorban pedig tömeges alkalmazásukban fejlődnek: a nagy tömegű adat begyűjtése és a sebezhető pontok automatizált azonosítása ezen a területen is profitáblissá teheti a nagy mintával és viszonylag alacsony találati aránnyal működő kampányokat.
A lista többi eleme és a rosszindulatú felhasználások részletei a UCL oldalán olvashatók. Hogy a mesterséges intelligencia fejlődése és adaptációja mennyi potenciális támadási felületet ad, azt elég jól mutatja a lista legalja, vagyis a legkevésbé aggasztó alkalmazások, amelyek között így is ott van a tartalomhamisítás, a tömeges megfigyelés vagy az MI-alapú ellenőrző rendszerek kijátszása.
A digitális térben a bűncselekmények módszerei és eszközei már nagyon könnyen reprodukálhatók, megoszthatók, vagy akár áruba is bocsáthatók, mint ahogy azt a hack-for-hire iparág megjelenése is mutatja. A mesterséges intelligencia a bűnözők szempontjából azzal kecsegtet, hogy tevékenységük legnehezebb és leginkább forrásigényes elemeit bízhatják az egyre pontosabban dolgozó gépi algoritmusokra; a kutatók szerint ez nemsokára széles körben elhozza a bűnözői tevékenység piacosítását, így ideje lesz megismerkednünk a Crime as a Service (CaaS) kifejezéssel is.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak