A Metaphysic nevű MI-fejlesztő szoftvercég kutatói egy megdöbbentően egyszerű módszerről írnak cég hivatalos blogján, amellyel bárki leleplezheti a videohívásokban deepfake (mélyhamisító) szoftvereket alkalmazó csalókat. Ez pedig a következő: kérjék meg a beszélgetőpartnerüket, hogy fordítsa oldalra a fejét, és akkor minden bizonnyal a fenti képen is látható jelenséget tapasztalják majd. Mivel a jelenlegi deepfake programok nem igazán alkalmasak rá, hogy profilból is újrateremtsék valakinek az arcát profilját, a fotorealisztikus illúzió egyből szétesik, ha a fej 90 fokkal elfordul valamelyik oldalra.
A trükk a közeljövőben még sok esetben jól jöhet mindenkinek, mint egyfajta CAPTCHA a mélyhamisítások ellen: elméletileg nem nyújt ugyan 100 százaékos biztonságot, de a gyakorlatban ki fogja szűrni a rosszhiszemű próbálkozások túlnyomó többségét, amikor a csalók a deepfake technológiát alkalmazva akarják megszerezni a pénzt vagy az érzékeny információkat. Mivel a legtöbb ilyen algoritmus az arc frontjához igazodik, és mivel megfelelő profilképeket senkiről sem egyszerű szerezni, a módszer működni fog.
A Metaphysic bejegyzése alapján a profil egyébként is nagy kihívás a jelenlegi mélyhamisítási technológiák fejlesztőinek: általában a legjobb, amit egy algoritmus tehet, hogy becsléseket alkalmaz, különösen akkor, ha a célpont különféle arckifejezésekkel próbálkozik, és a fentiekhez hasonló kérésekre reagál a videohívások többi résztvevőjétől vagy egy automatizál azonosító rendszertől. Ebben az esetben a profilbecslés akkor is csak egy gyenge tipp lesz, ha rendelkezésre áll némi mélységi információ, például az új okostelefonok szenzorain keresztül.
Nem teljesen biztos, de majdnem teljesen biztos
Természetesen léteznek módszerek mindennek a megkerülésére: az egész fejet ki lehet cserélni mondjuk egy fotorealisztikus CGI-modelre, a 3D-s testszkennelési technológiákkal pedig az is elképzelhető, hogy egy csaló a saját képét teljes egészében valaki másévá alakítsa. Innentől azonban az jelenti a relatív biztonságot, hogy mindez mennyi időt és erőforrást emésztene fel, összevetve a sikeres csalásokból remélt haszonnal. A Metaphysic egyszerű módszere most még működik, bár idővel nyilván a másik oldalon is megtalálják az új megoldásokat a személyazonosságok elrejtésére.
A cikkből egyébként kiderül, hogy más lehetséges kérések is segíthetnek kiszűrni a potenciális mélyhamisításokat, amelyek szintén hasznosak lehetnek a hitelességük megállapításában, de ezek egyike sem annyira "adathiányos" vagy nehezen kiküszöbölhető, mint a profilvizsgálat. Az élő deepfake videóknak például a kibővített valósághoz (AR) hasonlóan problémái támadnak, ha a valódi képre helyezett virtuális kép fölé megint odakerül egy valódi akadály: ha a videohívás közben a deepfake szereplő az arcához nyúl vagy néhányszor elhúzza előtte a kezét, az illúziónak könnyen vége szakad.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak