A Reuters a Harvard Egyetem egyik kutatójával közösen vizsgálta meg a ChatGPT, a DeepSeek, a Grok és más népszerű MI-chatbotok viselkedését a "tökéletes adathalász e-mail" elkészítését célzó utasításokkal szemben. Bár alapértelmezett módon az ilyen szolgáltatások nem nyújtanak segítséget az ilyen jellegű anyagok elkészítésében, hamar kiderült, hogy mennyire egyszerű rávenni őket az együttműködésre. Az így létrehozott üzenetek pedig annyira hatékonynak bizonyultak, hogy a tesztben résztvevő önkéntesek 11 százaléka le is kattintotta a levelekben elhelyezett rosszindulatú hivatkozásokat.
Ahogy az AI News beszámolója is felhívja rá a figyelmet, az ilyen kísérleteknek komoly valóságpróbaként kellene szolgálniuk, hiszen az adathalászat (phishing) eddig is létező eszközeit a mesterséges intelligencia sokkal gyorsabb, olcsóbb és hatékonyabb fegyverré alakítja. A cikk alapján az ugyancsak MI-alapú észlelés jövőre már kiemelt biztonsági prioritás lesz azoknak a vállalatoknak, amelyek nem szeretnének zátonyra futni az egyre összetettebb fenyegetési környezetben, különös tekintettel arra, hogy a kockázatokat az egekbe emeli a szolgáltatásként nyújtott adathalászat (PhaaS) térnyerése.
A lap olyan kutatásokat idéz, amelyek értelmében ezek az "alacsony képzettségű bűnözők" számára is hozzáférhető szolgáltatások több mint 17 ezer azonosított adathalász domaint hoztak létre 74 országban, és alig 30 másodperc alatt létre tudnak hozni klónozott bejelentkezési portálokat olyan márkákhoz, mint amilyen a Google vagy a Microsoft. Ezzel lényegében megszüntetik kiberbűnözés "belépési korlátait", a generatív MI-eszközök pedig nagy tételben gyárthatják a személyre szabott, nem generikus spamet akár a hangos-képes-videós deepfake hamisítások hatékony alkalmazásával.
Ami eddig működött, az innentől felejtős
Ebben a felállásban elég nyilvánvaló, hogy a hagyományos technikák és e-mail szűrők nem lesznek képesek kezelni, még nagyobb felelősséget hárítva az emberi célpontokra. Az MI-vel termelt, egyre meggyőzőbb üzenetek azonban még a jól képzett alkalmazottakat is átverhetik időnként, ráadásul az adathalász kampányok kifinomultságánál is lényegesebb szempont a támadások mennyisége, hiszen az automatizálás biztosítja az új fenyegetések folyamatos áramlását. (Időközben egyébként azt is igazolták, hogy az adathalászat veszélyeire figyelmeztető aktuális kurzusok kábé semmit nem érnek.)
Az AI News értékelése szerint a mesterséges intelligencia általi adathalász támadások felderítésében is a többrétegű megközelítés a leginkább célravezető. Az elavult fenyegetési információkra támaszkodó, statikus szűrők helyett a legitim kommunikációs mintákon képzett, természetes nyelvi feldolgozásra specializált modellekre van szükség a hangnem, a megfogalmazás vagy a szövegstruktúra finom eltéréseinek azonosításához, az alkalmazottak biztonsági tudatossága pedig szimulációs képzésekkel fejleszthető azokkal a támadásokkal szemben, amelyekkel jó eséllyel szembesülhetnek majd.
Sikeres adathalász kísérletek persze így is lesznek, így a védelem utolsó rétegét a szokatlan felhasználói vagy rendszertevékenységeket érzékelő (UEBA) rendszerek adják, amelyek célja, hogy ilyenkor se kerülhessen sor a vállalati rendszerek teljes körű kompromittálására. Ahogy írják, a védekezésnek a fejlett technológia és az emberi felkészültség együttes alkalmazására kell épülnie, miután a mesterséges intelligencia olyan szintre fejleszti és skálázza az adathalászatot, hogy az egyre könnyebben képes lesz túlterhelni vagy megkerülni a phishing üzenetek elleni hagyományos védelmet.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak