Bár a generatív mesterséges intelligencia az informatikai biztonságban is új felhasználási lehetőségeket hozott, ugyanúgy problémákat teremt az a képessége, hogy segítségével egyszerűbbé válik a rosszindulatú kódok előállítása vagy például az adathalász kampányok kivitelezése. A VentureBeat hét eleji cikkében a PwC elemzőivel gyűjtötte össze azokat a szempontokat, amelyek jellemzőek lesznek a generatív MI-eszközök, így a ChatGPT elterjedésére. Bár a szakemberek összességében bizakodónak tűnnek a mesterséges intelligencia rosszindulatú felhasználása elleni küzdelemről szólva, az előrejelzésekből nyilvánvaló, hogy a technológia meghatározó változásokat hoz a kiberbiztonságban is.
A felsorolt tényezők között az első természetesen az MI rosszindulatú alkalmazása, amelyben inflexiós pontot jelent az ilyen eszközök széles körű elérhetősége. Ebben a tekintetben mindenképpen szükségesnek tartanak valamilyen társadalmi értékeken alapuló szabályozást az etikus felhasználással kapcsolatban, ide sorolva a modellek képzésének és kimeneteinek védelmét is. A saját szabályzatok megalkotását az egyes szervezetek sem kerülhetik el, már csak azárt sem, mert az ilyen irányelvekkel kerülhetik el bizalmas és privát adatok nyilvános rendszerekbe kerülését, és ez teszi lehetővé a biztonságos küzleti örnyezet kialakítását a generatív mesterséges intelligencia bevezetéseihez.
Összhangra van szükség a felhasználókkal
A PwC elemzői szerint az új technológia elképesztő lehetőségeket rejt magában az auditok megújítására, pláne, hogy az automatizáláson túl az alkalmazottaknak és az ügyfeleknek. Az adatlopások vagy az adatokkal való visszaélések kiküszöböléséhez azonban elkerülhetetlen a rendszerbe bevitt információ megfelelő begyűjtése és azonosítása, felmérve az adatkészlet esetleges torzításait is. Mivel a kódolt vagy szkriptezett megoldásokkal szemben az előre betanított modellek kimenetei nem jelezhetők előre száz százalékos biztonsággal, fontos lesz a háttérben működő technológia és a felhasználók együttműködése, ide értve a robusztus biztonsági intézkedések életbe léptetését.
A cikkben idézett szakemberek összességében azt javasolják a vállalatoknak, hogy az ellenállás helyett fontolják meg a generatív mesterséges intelligencia alkalmazását a megfelelő biztosítékok és kockázatcsökkentési intézkedések mellett. A manuális feladatok automatizálásával kreatív potenciált szabadíthat fel, elősegítve, hogy minél többen teljesítsenek kimagaslóan a munkájukban, és szerintük a generatív MI még a költségcsökkentéshez is hozzájárulhat a kiberbiztonsági beruházásokban. Az új megoldások már az idén érezhető fejlődést hozhatnak a fenyegetettség-felderítésben és más defenzív képességekben, vagy akár a megfelelőségi kockázatok kezelésében is.
A hibakeresés nem egyenlő az alkalmazásbiztonsággal
Építsünk olyan AppSec környezetet, amely csökkenti az alkalmazásfejlesztés kockázatait, de nem válik a gyors leszállítás akadályává!
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?