A hét elején az Egyesült Államokban nagy port kavart egy ügy, amelyben a regnáló elnök közeli munkatársa manipulált videó megosztásával igyekezett lejáratni a demokraták elnökjelöltjét. Mint elég gyorsan kiderült, az interjú közben elalvó Joe Biden csak egy kilenc évvel ezelőtti, Bidenhez egyáltalán nem köthető tévéműsor képi és hangbeli meghamisításával állt elő. Miközben a Fehér Ház kínos hallgatással reagált, a közösségi oldalakról a bejelentéseket követően eltávolították a felvételt, ám addigra több millió emberhez eljutott a "bombasztikus felvétel".
Talán ebből is látszik, mekkora problémát jelent manapság a technológiai fejlődés és az internetnek köszönhető villámgyors információterjedés lehetőségének együttese. A pár nappal ezelőtti esetnél meglehetősen kezdetleges módszerekkel manipulálták az eredeti anyagot, ám a deepfake megjelenésével és könnyen elérhetővé válásával egyre szofisztikáltabb és laikus szemmel egyre nehezebben leleplezhető felvételek árasztják el a világhálót.
Hogy dobog egy hamisítvány szíve?
Az elmúlt időszakban két, mesterséges intelligenciával foglalkozó kutatócsapat is előállt a maga ötletével arra, miként lehetne ezeket a felvételeket automatizálva és nagy biztonsággal kiszűrni. Ez ugyanis alapvető fontosságú lenne, hiszen a közösségi hálózatokon futótűzként terjedő megtévesztés ellen csak az jelentene valamiféle védelmet, ha ezeket a kreálmányokat a lehető leggyorsabban és legpontosabban be lehet azonosítani.
Mindkét publikált tanulmány az orvostudományban már alkalmazott fotopletizmográfián (photoplethysmography - PPG) alapul. Ez nagyon leegyszerűsítve egy olyan mérési módszer, ahol a páciens szöveteiben megtalálható erek tágulásából és összehúzódásából következtetnek a szív működésére. Ezek a mikrováltozások természetesen az arcon is megfigyelhetők, ám mindezt a manipulált felvételek nem, vagy éppen nem megfelelően követik le.
Erre a felismerésre épül a Binghamton University és az Intel szakembereinek projektje is. A kutatók felismerétk, hogy a deepfake felvételek egyedi biológiai és generatív zajmintákat tartalmaznak. Ezeket az általuk "deepfake szívdobbanásnak" nevezett jeleket felkutatva pedig nem csupán az válik világossá, hogy a felvételt manipulálták, de még az is kideríthető, hogy milyen eredeti anyagból készítették.
A tesztek során az arcok 12 különböző pontjáról vett PPG-minták alapján az algoritmus 97,3 százalékos pontossággal szűrte ki a hamisítványokat, míg az esetek 93,4 százalékában azt is jól beazonosította, hogy a FaceForensics++ fejlesztéseket segítő minta-adatbázisának melyik eleméről van szó.
A világ másik fleén az Alibaba Group munkatársai álltak össze több kínai egyetem kutatóival, hogy szintén a PPG-ben rejlő potenciált kiaknázva jussanak hatékonyabb védekezési eszközhöz. A DeepRhythm elnevezésű megoldás a szívritmus mintázatát figyelve az eddig elérhető megoldásoknál sokkal jobb eredményeket hozott, ráadásul a módszer elég jól viseli a mintán bekövetkező esetleges degradációkat is.
Fokozódik a nyomás
Ahogy az amerikai elnökválasztás a hajrájához ér, egyre nagyobb a nyomás a technológiai cégeken is, hogy valamiféleképpen állják útját a manipuláció terjedésének. Ennek egyik lehetséges eszköze lehet a Microsoft hét elején bemutatott új szolgáltatása is. A Video Authentication egy az Azure-platformon futó alkalmazás, amely a feltöltött képekről és videókról igyekszik megállapítani, hogy manipuláltak-e. Redmond ezt első körben a sajtó képviselőinek és a politikai kampánycsapatok számára biztosítja az AI Foundation Reality Defender programján keresztül.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak