A deep learning és a fake (mélytanulás és a hamisítvány) szavakból képzett deepfake kifejezést a legtöbben még csak mostanában tanulják, bár a létező felvételek utólagos manipulációjára már az ezredforduló előtt is léteztek alkalmazások. Ezek azonban a neurális hálóra alapuló, öntanuló rendszerek fejlődésével váltak képessé az adatfolyamok minden eddignél magasabb szintű manipulációjára, mára pedig a mesterséges intelligencia egyre szélesebb körben teszi elérhetővé az átlagos emberi érzékszerveknek hitelesnek tűnő videók és hanganyagok előállítását.
Olyannyira, hogy a biztonsági kutatók az audiovizuális megszemélyesítéseket már a legmagasabb kockázatú fenyegetések közé sorolják, mivel a hamisítványok kiszűrése lassan túlmutat az emberi érzékelés korlátain, az MI automatizációs képességei ráadásul a célpontok elárasztására is alkalmasak, tovább növelve a sikeres támadások esélyét. Bár a deepfake ugyancsak mesterséges intelligenciára alapozott kiszűrésére sokfelé folynak kísérletek, ezek jellemzően még korai szakaszban járnak, úgyhogy egyelőre csak a fejlesztések és felhasználások ellenőrzését célzó szabályozási kísérletekkel kell beérnünk.
Nemrég mi is beszámoltunk arról a 35 millió dolláros kárt okozó csalásról, amelynek során egy egyesült arab emírségekbeli banki alkalmazottat vettek rá a bűnözők, hogy átutalja a hatalmas összeget. Az éberségét a saját bankjának egyik vezetőjével folytatott telefonbeszélgetés altatta el, amelynek során a támadók az MI által élethűen utánzott hangot (deep voice) használtak. Így már világosan látszik, hogy a deepfake alkalmazása az olyan etikai problémák mellett, mint mondjuk egy elhunyt színész életre keltése, már gazdasági szempontból is mindenkire komoly veszélyt jelent.
Jobb lesz hozzászokni?
Egy másik ilyen terület a dezinformáció, ahol közösségi média és más online felhasználások vagy technológiák amúgy is a következő szintre emelték a tömegeket célzó félretájékoztató kampányok lehetőségeit. Ezt a Massachusetts Institute of Technology (MIT) fejlett virtuális megoldásokat kutató központjának multimédiás projektje is igen meggyőzően mutatta be, amikor szeptember legvégén közzé tett egy néhány perces ál-dokumentumfilmet Nixon elnök soha el nem mondott beszédéről a sikertelen, tragédiával végződő Holdra szállási kísérlet bejelentésével.
Bár az "In Event of Moon Disaster" című rövid film tavaly készült, idén szeptember végén Emmy-díjjal is elmerték, ami valószínűleg a korábbinál szélesebb közönséghez is eljuttatta az alkotást. Az MIT az ukrán Respeecher nevű startup közreműködésével alkotta újra Nixon hangját, nem csak azt mutatva be, hogy a technológia segítségével milyen látványos dolgokat lehet létrehozni, hanem azt is szemléltetve, hogy a deepfake videók fejlődésével mire számíthatunk a legújabb kori dezinformációs kísérletekkel kapcsolatban.
Az MIT egyik korábbi tanulmánya már évekkel ezelőtt kimutatta, hogy a közösségi médiában a felhasználók 70 százalékkal nagyobb valószínűséggel osztják meg a hamis állításokat, mint a kevésbé izgalmas igazságot, vagyis az álhírek gyorsabban terjednek. Az elkövetkező időkben pedig a deepfake videók is egyre gyakoribbá válhatnak majd ezeken a platformokon, ami a kutatók szerint társadalmi szinten is szörnyű következményekkel járhat. Így mindenképpen fel kell hívni a figyelmet az ilyen jellegű visszaélésekre a társadalom szintetikus médiatechnológiákra való nevelésén keresztül: ezekre ugyanis a rosszindulatú szereplők egyre több szakértelmet és erőforrást fordítanak, a tömegek pedig nem hogy a deepfake tényleges lehetőségeivel, de sokszor még az ilyen technológiák még a létezésével sincsenek tisztában.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak