A mindössze néhány éve létező, ám máris komoly problémákat és kérdéseket felvető deepfake technológia ellen valós időben bevethető megoldással jelentkezett az Intel. Az amerika technológiai vállalat állítása szerint az általa fejlesztett mesterségesintelligencia-modell villámgyorsan és nagy pontossággal képes felismerni a manipulált videófelvételeket. A detektálás lelkét a több évig csiszolt FakeCatcher elnevezésű algoritmus adja, amely 96 százalékos pontossággal büszkélkedhet.
A csipgyártó eljárása az eddigi megoldásokhoz képest annyiban mindenképpen úttörő, hogy az elemzés nem utólag, hanem valós időben történik. A rendszer olyan vizuális jeleket keres a felvételeken, amelyek arra utalnak, hogy az alany létező személy. Ilyen bizonyítéknak tekinthető például a videó képpontjainak finom színváltozása, amelyet a véráramlás okoz, ahogy a szív bizonyos időközönként pumpálva keringeti a vért a testben. Az algoritmusok ezeket tér-időbeli térképekké fordítják le, így egy mélytanulási modell képes felismerni, hogy egy videó valódi-e vagy sem.
Az Intel a FakeCatcher kifejlesztése során nagyban támaszkodott saját technológiáira. Ilyen például a mélytanulási modellek optimalizálására szolgáló OpenVINO eszközkészlet, vagy a valós idejű képek és videók feldolgozására szolgáló OpenCV. A szoftver akár 72 különböző észlelési folyamot is képes egyszerre futtatni a 3. generációs Xeon Scalable processzorokon.
A fejlesztés a remények szerint segíthet kiszűrni a felhasználók által feltöltött káros deepfake tartalmakat a közösségi médiában, de bizonyosan jól jön a médiavállalatoknak is, hiszen az újságírók esetében különösen fontos az, hogy meg tudják különböztetni a valódit a hamisítványtól.
Egyre nagyobb probléma
A hírességek, politikusok, vagy akár egyszerű átlagemberek arcát felhasználó valótlan tartalmak miatt egyre többször és többen kongatják meg a vészharangot. És már régen nem csak a "felnőtt filmek" szereplőinek átalakításáról van szó. Idén nyáron például az FBI külön figyelmeztetést adott ki arról, hogy a bűnözők egyre többször próbálnak távmunkás álláskeresőként értékes belső adatokhoz jutni a deepfake-re támaszkodva. Egy kutatás pedig arra jutott, hogy a személyek azonosítására használt kritikus rendszerek (pénzügyi szolgáltatók, választási felületek stb.) elsöprő többsége képtelen kiszűrni az algoritmusok által manipulált felvételeket.
A problémára a szabályozó hatóságok szigorításokkal, a vállalatok pedig szövetségek alakításával igyekeznek reagálni. Előbbire példa az EU, ahol egy nyári módosítás szerint a nagy technológiai cégek súlyos bírságokat kockáztatnak, ha nem hozzák meg a megfelelő intézkedéseket az általuk üzemeltetett platformokon terjedő mélyhamisított anyagok és az ott működő hamis fiókok ellen. Az iparági összefogást pedig az a tavasszal gründolt kezdeményezés szimbolizálja, amelyhez az Intel mellett többek között a Microsoft, a Twitter, a Sony, a Nikon és a Photoshopot gyártó Adobe is csatlakozott. A vállalatok célja olyan nyílt szabványok megalkotása, amelyekkel sikeresen vehető fel a harc a deepfake felvételekkel szemben.
Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében
"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak