Tulajdonképpen roppant primitív a deepfake videók működési elve: létező, már leforgatott filmekben teszi lehetővé a benne szereplők arcának lecserélését olyan emberekére, akiknek semmilyen közük sem volt az eredeti alkotáshoz. A mesterséges intelligencia kellően sok képből létre tudja hozni azt a modellt, amit aztán a technika fejlődésével egyre valósághűbben tud beilleszteni egy filmbe. Például egy felnőtteknek szánt erotikus filmbe...
Csodálkozhat a csodanő
A gépi tanulás technikájára támaszkodva három, viszonylag egyszerű lépésben lehet átverni a gyanútlan nézőket. Elsőként a célpontról kell néhány fotó, minél több, annál jobb. Annál könnyebb dolga lesz ugyanis az MI-nek, hogy a lehető leghihetőbbé tegye az illető szereplését a filmben. Ezt követően ki kell választani a mozgóképes tartalmat, amiben a készítő viszont szeretné látni a kiszemelt személyt. Végül a szerkesztést rá kell bízni a mesterséges intelligenciára, mely filmhossztól függően akár 1-2 napot is elpiszmoghat a feladattal.
Már jó pár ilyen videó készült az elmúlt hetekben, hónapokban, érthető módon a celebritásokat célzó alkotások lettek a legnépszerűbbek. A csodanőt (wonderwoman) játszó Gal Gadot így volt kénytelen magát egy pornófilmben viszontlátni, de számos másik híresség is azzal szembesült, hogy olyan művekben bukkan fel, amikben valójában nem ő szerepel.
De nem csak hírességekre korlátozódik a deepfake videók új trendje. A közösségi médiában saját maguk által közzétett képdömping révén mindenki célpont lehet. A jelenség fő mozgatórugója, hogy kis túlzással bárki készíthet ilyen filmeket. A deepfake videó jelenséget elindító Reddit felhasználó azóta elkészítette (kicsit bugos) appját, melyet elérhetővé is tett azok számára, akik kipróbálnák magukat a hamis mozgóképes alkotások készítésében és terjesztésében.
Igaz, azért a dolog nem marad következmények nélkül. Azt a Reddit csoportot, ahol a korábban már említett Gal Gadot "vendégszereplése" volt megtekinthető, az üzemeltető egyszerűen letiltotta. És még ez a jobbik eset, hiszen a művésznő akár pert is indíthatott volna, személyiségi jogai megsértése miatt (persze, nem kizárt, hogy ettől függetlenül meg fogja tenni).
Nagyjából tehetetlenek vagyunk ellene
Az azonban minimum kérdéses, hogy sikerrel járna-e. Egyáltalán nem könnyű teljesen eltávolítani az internetről a sértő tartalmakat; ha az eredeti mű jogtulajdonosa nem jelentkezik, akkor szinte semmi esély nincs rá. Ráadásul az Egyesült Államokban ott van az Alkotmány szólásszabadságot védő első kiegészítése, ami számos esetben a deepfake videókat készítők jogait (is) védik.
Apropó, készítők. A kamuvideók eltüntetésénél egy nehezebb dolog akad az ügyben: megtalálni azokat, akik összehozták őket. A Redditen még viszonylag könnyű dolga van annak, aki kellően nagy anyagi bázissal rendelkezik és türelmes; az általa megfizetett ügyvédek előbb-utóbb elő tudják keríteni az alkotókat. De mi a helyzet a más országokban, például Oroszországban készült művekkel, azok alkotói totális névtelenségbe burkolózhatnak? A kérdés természetesen költői.
Szerencsére az olyan nagyok, mint a Reddit, a PornHub és a Twitter, bejelentették, hogy kitiltják a deepfake tartalmakat szolgáltatásaikból. Ugyanakkor a Gadot deepfake videó egy gyors webes kereséssel pár másodperc alatt előkereshető, például a Redtube szolgáltatásában a cikk írásának időpontjában is elérhető.
„Fel kell készülnünk arra a világra, amiben rutinosan keverednek a megbízható és hamis képek és videók” – intette óva az emberiséget Eric Goldman, a Santa Clara Egyetem Jogi Karának professzora.
A hamispornó még a legkisebb rossz
Az egyénnek persze nagy megrázkódtatást jelenthet, ha rosszakarója olyan filmbe ülteti át az MI révén az arcát, melyben nem szívesen szerepelne. Van azonban egy sokkal nagyobb horderejű következménye is a deepfake videóknak. Megjelenésükkel többé sosem lehetünk biztosak abban, hogy valóban az eredeti anyagot látjuk, vagy egy manipulált felvételt, melyen a rajta látható személy, a látottak és a hallottak ellenére sosem szerepelt.
Jól mutatja a lenti Barack Obama videó, mire képes a technika napjainkban. A korábbi amerikai elnök számos beszédét elemző mesterséges intelligencia segítségével már elő lehetett állítani egy gyakorlatilag bárkit megtévesztő felvételt:
A jövő politikusai így egy korábbi, nem kívánt beszédüket bármikor ráfoghatják rosszakaróikra, és persze annak is egyre valósabb a veszélye, hogy tényleg készülnek deepfake videók fontos személyiségekről. Képzeljük el, ha egy összetett hackertámadás révén sikerülne bejutni egy országos televíziós hálózat rendszerébe, ahol leadnának egy rövid, látszólag Donald Trumpot mutató videót. A manipulált felvételen bármit mondhatna az elnök, például egy közelgő atomcsapás miatt mindenkit menekülésre bíztathatna, óriási káoszt okozva ezzel pillanatok alatt.
Van olyan pokoli, mint a Skynet?
Ahogy fejlődik az MI, a deepfake videókat készítő eszközök is mind kifinomultabbak lesznek. Egyre inkább valósághűvé válnak, és számos negatív hatást hozhatnak magukkal. Zsarolások eszközeként bukkanhatnak fel és hamis bizonyíték gyártható velük, hogy csak néhány példát említsünk. Éppen ezért óriási a felelősség a mesterséges intelligenciát fejlesztő szervezeteken. A deepfake videók trendjének megszüntetésére lehetőségük sincs, viszont olyan megoldások létrehozására igen, melyek szintén automatizált módon, hatékonyan képesek beazonosítani őket.
Vagyis hamarosan eljutunk az egymás ellen küzdő MI-k korába. Ennek eredményeként pedig sosem látott függőségbe kerülünk a mesterséges intelligenciától, hiszen saját érzékszerveink már nem lesznek elegendők ahhoz, hogy eldönthessük: mi az igaz és mi a hamis.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak