Kutatók több csoportja is komoly eredményeket ért el az egyre nagyobb problémát jelentő álfelvételek elleni harcban. Módszerük az orvostudományban használt technológián alapszik.

A hét elején az Egyesült Államokban nagy port kavart egy ügy, amelyben a regnáló elnök közeli munkatársa manipulált videó megosztásával igyekezett lejáratni a demokraták elnökjelöltjét. Mint elég gyorsan kiderült, az interjú közben elalvó Joe Biden csak egy kilenc évvel ezelőtti, Bidenhez egyáltalán nem köthető tévéműsor képi és hangbeli meghamisításával állt elő. Miközben a Fehér Ház kínos hallgatással reagált, a közösségi oldalakról a bejelentéseket követően eltávolították a felvételt, ám addigra több millió emberhez eljutott a "bombasztikus felvétel".

Talán ebből is látszik, mekkora problémát jelent manapság a technológiai fejlődés és az internetnek köszönhető villámgyors információterjedés lehetőségének együttese. A pár nappal ezelőtti esetnél meglehetősen kezdetleges módszerekkel manipulálták az eredeti anyagot, ám a deepfake megjelenésével és könnyen elérhetővé válásával egyre szofisztikáltabb és laikus szemmel egyre nehezebben leleplezhető felvételek árasztják el a világhálót.

Hogy dobog egy hamisítvány szíve?

Az elmúlt időszakban két, mesterséges intelligenciával foglalkozó kutatócsapat is előállt a maga ötletével arra, miként lehetne ezeket a felvételeket automatizálva és nagy biztonsággal kiszűrni. Ez ugyanis alapvető fontosságú lenne, hiszen a közösségi hálózatokon futótűzként terjedő megtévesztés ellen csak az jelentene valamiféle védelmet, ha ezeket a kreálmányokat a lehető leggyorsabban és legpontosabban be lehet azonosítani.

Mindkét publikált tanulmány az orvostudományban már alkalmazott fotopletizmográfián (photoplethysmography - PPG) alapul. Ez nagyon leegyszerűsítve egy olyan mérési módszer, ahol a páciens szöveteiben megtalálható erek tágulásából és összehúzódásából következtetnek a szív működésére. Ezek a mikrováltozások természetesen az arcon is megfigyelhetők, ám mindezt a manipulált felvételek nem, vagy éppen nem megfelelően követik le.

Erre a felismerésre épül a Binghamton University és az Intel szakembereinek projektje is. A kutatók felismerétk, hogy a deepfake felvételek egyedi biológiai és generatív zajmintákat tartalmaznak. Ezeket az általuk "deepfake szívdobbanásnak" nevezett jeleket felkutatva pedig nem csupán az válik világossá, hogy a felvételt manipulálták, de még az is kideríthető, hogy milyen eredeti anyagból készítették.

A tesztek során az arcok 12 különböző pontjáról vett PPG-minták alapján az algoritmus 97,3 százalékos pontossággal szűrte ki a hamisítványokat, míg az esetek 93,4 százalékában azt is jól beazonosította, hogy a FaceForensics++ fejlesztéseket segítő minta-adatbázisának melyik eleméről van szó.

A világ másik fleén az Alibaba Group munkatársai álltak össze több kínai egyetem kutatóival, hogy szintén a PPG-ben rejlő potenciált kiaknázva jussanak hatékonyabb védekezési eszközhöz. A DeepRhythm elnevezésű megoldás a szívritmus mintázatát figyelve az eddig elérhető megoldásoknál sokkal jobb eredményeket hozott, ráadásul a módszer elég jól viseli a mintán bekövetkező esetleges degradációkat is.

Fokozódik a nyomás

Ahogy az amerikai elnökválasztás a hajrájához ér, egyre nagyobb a nyomás a technológiai cégeken is, hogy valamiféleképpen állják útját a manipuláció terjedésének. Ennek egyik lehetséges eszköze lehet a Microsoft hét elején bemutatott új szolgáltatása is. A Video Authentication egy az Azure-platformon futó alkalmazás, amely a feltöltött képekről és videókról igyekszik megállapítani, hogy manipuláltak-e. Redmond ezt első körben a sajtó képviselőinek és a politikai kampánycsapatok számára biztosítja az AI Foundation Reality Defender programján keresztül.

Hirdetés
Cloud & big data

Hatott a felháborodás: nem mér egyéni teljesítményeket a Productivity Score

A Microsoft bejelentette, hogy visszavesz a funkcióból: mostantól csak szervezeti szinten ad összesített adatokat a produktivitásról.
 
Hirdetés
Jó hír: ehhez rendelkezésre állnak a megfelelő eszközök. Az általánossá váló távmunka még jobban ráirányította a figyelmet, hogy az adatok biztosítása nem csak a cloud szolgáltatók, hanem legalább akkora részben a megrendelők felelőssége is.

a melléklet támogatója a Servergarden

Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2020 Bitport.hu Média Kft. Minden jog fenntartva.