Egyelőre nem sok olyan csalási kísérletet látunk, amiben a deepfake hangsúlyos szerepet kap. Vannak sokkal egyszerűbben használható és már számtalanszor bizonyított módszerek is arra, hogy emberektől fontos adatokat (pl. jelszavak, PIN kódok, bankkártyaadatok stb.) szerezzenek meg a kiberbűnözők. A technológia azonban nagyon tempósan fejlődik, így nyomon kell követni hatását a kiberbiztonságra. Így összegezhető John Shiernek, a Sophos vezető kutatójának a véleménye a deepfake körül pánikról.
A szakember szerint a jelenlegi technológiai szinten a mesterséges intelligencia (MI) generálta hamisított videók közel sem a leghatékonyabb eszközök egy támadáshoz. Sokkal olcsóbb és már bizonyított módszerek léteznek az adathalászatra és a social engineeringre, melyeket alkalmazni is egyszerűbb. Csak szépen kell kérni, és az emberek átadják a kívánt információkat – mondta Shier a The Registernek.
Épül-szépül a hamis virtuális világ
A kutató nem azt állítja, hogy a deepfake egyáltalán nem alkalmas csaláson alapuló támadásokra, csak szerinte érdemes lenne a technológiát a helyén kezelni. Már csak azért is igaza lehet, mert közben jellemzően kevesebb figyelem irányul a ma még sokkal veszélyesebb támadási faktorokra.
Az ún. romantikus csalásoknál például már megjelent. Ám egy ilyen csalás kivitelezésére hosszú időt és sok energiát kell áldozni. Létre kell hozni az online térben egy hamis személyazonosságon alapuló profilt, amin keresztül a támadó az áldozat bizalmába tud férkőzni, hogy aztán adatokat, pénzt vagy más értékeket csaljon ki tőle. Shier szerint az ilyen csalásoknál is csak akkor lesz igazán problémás a deepfake létrehozására alkalmas MI, ha használata méretarányosan lesz skálázható.
Azt a szakember szerint nem lehet tudni, hogy a technológia mikor ér el erre a szintre, de képessége évről évre nagyságrendeket javul, és a kibervédelemnek előbb kell lépnie. Az MI-szakértők szerint még néhány év, amíg beérik a technológia, de Shirer úgy gondolja, egyes bűnözői csoportok hamarabb megjelennek az alkalmazói között. Az Europol egy közelmúltban kiadott jelentése szerint pedig 2026-ra az online tartalmak akár 90 százaléka is szintetikusan előállítható anyag lesz.
A figyelmeztető jelek már láthatóak
Augusztusban a Binance PR-vezetője, Patrick Hillmann a vállalat blogján számolt be arról, hogy kiberbűnözők létrehozták deepfake-klónját, "aki" aztán Zoom-meetingeken vett részt, és próbált embereket átverni. (Hillmann úgy jött rá a csalásra, hogy köszönő leveleket kapott olyan emberektől, akikkel sohasem beszélt.)
A Trend Micro szintén a közelmúltban foglalkozott a problémával. Mint írják, a deepfake még nem első számú csalási eszköz, de segíti más technikák hatékonyabbá tételét. A hamisított képek, videók így megjelennek álláskeresési csalásokban, az üzleti találkozókon (ahogy P. Hillmann is járt) vagy netes hirdetésekben. Az álláshirdetésekkel kapcsolatos csalások már olyan méretet öltöttek, hogy nyáron az FBI kiadott egy figyelmeztetést. Az USA szövetségi nyomozói szerint a távmunka ennek a csalási típusnak a melegágya: a csalók valós kilétüket deepfake-kel fedik el, és mivel maximum videós cseten vesznek részt a felvételi interjún, könnyen átjuthatnak a szűrőkön.
Pedig az MI-szakemberek szerint egyelőre nem túl izmosak ezek a deepfake-re alkalmas algoritmusok, így viszonylag egyszerű mechanizmusok beiktatásával lehet ellenőrizni, hogy valóban az ül-e a vonal másik végén, akinek a fejét látjuk a képernyőn.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak