A legelső sikeres csalásról, amelyet deepfake hang alkalmazásával követtek el, még 2019-ben számolt be a The Wall Street Journal: akkor egy brit energiaipari cég ügyvezetője utalt át 220 ezer eurót egy állítólagos magyarországi beszállító számlájára, miután a bűnözők elhitették vele, hogy a németországi anyavállalat vezetője utasítja erre telefonon. Ahogy a három és fél éve történt esetről szóló tudósításból is kiderült, a csalás azért lehetett sikeres, mert a pórul járt cégvezető felismerte főnöke enyhe német akcentusát és hangjának dallamát, amelyet ebben az esetben egy program generált.
Ahogy azt minden hozzáértő evidenciának tartja, a mesterséges intelligencia mára a kiberbűnözők kezében is veszélyes eszközzé vált a támadások hatékonyságának javítására és kampányaik kiterjesztésére. A "támadó MI" kockázatai között különösen aggasztónak tartják azokat az alkalmazásokat, amelyeket a megszemélyesítések támogatására vetnek be. Ilyenek a szóban forgó deepfake hamisítványok is, a mesterséges intelligencia automatizációs képességeivel ráadásul (a levélszemét mintájára) a célpontok elárasztása is lehetővé válik, növelve a sikeres támadások esélyeit.
Nem véletlen, hogy a biztonsági kutatók az egyes emberek audiovizuális megszemélyesítését a legmagasabb kockázatú fenyegetések közé sorolják. A deepfake, vagyis a valóditól nem igazán megkülönböztethető, MI-algoritmusok segítségével generált hamisítványok kiszűrése lassan túlmutat az emberi érzékelés korlátain. Szemléletes példa, hogy a jól ismert "unokázós csalók" mire mehetnének az MI-vezérelt, totál élethű megszemélyesítésekkel, de azok ugyanakkora problémát jelentenek a sokkal nagyobb horderejű csalásoktól kezdve egészen addig, amikor mondjuk egy deepfake elem véletlen azonosítása teljes körűen megkérdőjelezi az egyes ügyekben összegyűjtött bizonyítékok hitelességét.
Nemsokára mindennapos dolog lesz
A Forbes csütörtökön közzétett riportjában már egy egészen komoly, 35 millió dolláros (közel 11 milliárd forintos) csalásról számolt be, amelynek során egy egyesült arab emírségekbeli banki alkalmazott utalta át a hatalmas összeget a bűnözőknek. Ezt most is egy telefonbeszélgetés előzte meg saját bankjának egyik vezetőjével, akivel korábban már személyesen is találkozott, így a mesterséges intelligencia által élethűen utánzott hang (deep voice) is jobban elaltatta az éberségét. A támadók mindezt hamis levélváltásokkal is megtámogatták, a pórul járt banki menedzser pedig tette a dolgát, miután mindent teljesen hitelesnek látott.
A 21. századi bankrablás a lap birtokába került bírósági dokumentumok alapján jól megtervezett akció volt, amelyben egy legalább 17 fős banda utalta szét az óriási összeget különböző számlákra a világ minden pontján: a hivatkozott dokumentumok például az egyesült arab emírségekbeli és az amerikai hatóságok együttműködéséről szóltak 400 ezer dollár visszaszerzéséről a Centennial Banknál vezetett számlákról. Bár az áldozatokat a Forbes nem tudta azonosítani, annak azért sikerült a végére járnia, hogy a csalók által a kamu emailekben hivatkozott ügyvéd is valós személy.
A lapnak nyilatkozó szakértő külön kiemelte, hogy a hang MI-alapú manipulálása könnyebb feladat, mint a megszólalásig élethű deepfake videók elkészítése, és ez az új típusú támadási vektor egyre gyakoribb lesz a célpontok megfelelő oktatásának, illetve a jelenleginél hatékonyabb hitelesítési módszereknek a hiányában. Jelenleg éppen egy fordulópontnál járunk abban a tekintetben, hogy a rosszindulatú szereplők egyre több szakértelmet és erőforrást fordítanak a legújabb technológia munkába állítására, ezáltal pedig az olyan emberek tömeges befolyásolására, akik nincsenek tisztában a deep voice technológia lehetőségeivel, sőt általában még a létezésével sem.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak