A Facebook és a Microsoft hat egyetemmel közösen meghirdette a Deepfake Detection Challenge-t: hatékony deepfake-felismerő technológiákat keresnek.
Hirdetés
 

Hat egyetemmel közösen hirdetett versenyt a Facebook és a Microsoft kutatóknak, cégeknek, hogy olyan technológiákat dolgozzanak ki, melyekkel egyértelműen fel lehet ismerni a mesterséges intelligencia segítségével meghamisított videókat.

Széles összefogásra építenek

Bár a videók manipulálására alkalmas szoftverekkel már a 90-es években is kísérleteztek, a technológia mostanra ért kritikus fázisba. Az utóbbi években vészesen szaporodnak az olyan hamis tartalmak, melyek megtévesztésig hasonlítanak valós videókra, képekre, hangfelvételekre. A nagy tartalomszolgáltató és -megosztó oldalak ugyan tettek látványos bejelentéseket, hogy kitiltják a deepfake tartalmakat szolgáltatásaikból, csakhogy lassan lehetetlen lesz eldönteni, hogy mi hamisított és mi nem.

A Facebook technológiai igazgatója, Mike Schroepfer blogbejegyzésében a Deepfake Detection Challenge társadalmi célját hangsúlyozza. Ezért vontak be a Microsofttal széles körből támogatókat: a hat egyetem (Cornell Tech, MIT, Oxford, Berkeley, Marylandi Egyetem, College Park, Albany Egyetem) mellett civil szervezeteket is, például a WITNESS emberi jogi szervezetet. Utóbbi meghívása nem véletlen, hiszen a szervezet épp videókkal, fényképekkel küzd az emberi jogok megsértése ellen, így elemi érdeke, hogy egy videóról ki lehessen deríteni, hogy azt utólag manipulálták-e.

Mint Schroepfer írja, eredménytáblával, támogatásokkal és díjakkal is szeretnék ösztönözni a vállalkozó kedvűeket az új módszerek felkutatására. Arról azonban nem ír, hogy konkrétan mennyit kívánnak a projekt támogatására fordítani. A Deepfake Detection Challenge felügyeletére létrehoztak egy új irányító testületet is a két cég, valamint az egyetemek és a társadalmi szervezetek képviselőiből.

A társadalomra és a gazdaságra is veszélyes

A hamisítást lehetővé tevő, mesterséges intelligencián alapuló eszközök elképesztő ütemben fejlődnek. Lapunk is foglalkozott a Zao arccserélő app esetével, amely lényegében mindenkinek elérhetővé teszi a videomanipulálást. Az ilyen eszközök végképp kontrollálhatatlanná teszik a folyamatot, aminek beláthatatlanok a következményei. Ha csak a társadalmi hatását nézzük, választások manipulálására épp úgy alkalmasak, mint a közvélemény bármilyen célú befolyásolására.

Emellett vannak konkrét gazdasági kárai is. A The Wall Street Journal a közelmúltban adott hírt egy olyan esetről, hogy manipulált telefonhívással csaltak ki egy angol energetikai cégtől több százezer eurót. A hívó hangját ugyanis úgy sikerült manipulálni, hogy az angol cég vezetője azt hitte, a német anyavállalat vezérigazgatójától kapott szóbeli utasítást a pénz azonnali átutalásra. (Az már csak egy érdekes mellékszál, hogy egy magyar cég számlájára kellett utalnia a pénzt.)

Nem is ez volt az első ilyen eset. A Symantec pár hónapja azt állította a BBC-nek, hogy többször is találkoztak olyan incidenssel, amikor pénzügyi igazgatókat mesterséges intelligenciával manipulált telefonhívással vettek rá arra, hogy pénz utaljanak csalók számlájára. Hugh Thompson, a biztonsági cég technológiai igazgatója akkor még azt is megkockáztatta, hogy a csalók által használt modell valószínűleg közel tökéletes lehet. A hamisított hang előállításához szükséges hangmintákat manapság nem nehéz beszerezni, hiszen a megcélzott vezetők gyakran tartanak előadásokat, amiknek a felvétele aztán felkerül a YouTube-ra vagy a vállalat nyilvános weblapjára, de a pénzügyi gyorsjelentéseknél szokásos konferenciahívások felvételei is elérhetők nyilvánosan.

Az már más kérdés, hogy komoly aggályokat vethet fel egy vállalat belső folyamataival kapcsolatban az, ha egy alkalmazott a vezér egyetlen telefonhívására hajlandó elutalni akár általa nem ismert számlára is nagyobb összegeket.

Cloud & big data

Álhíreknek járó figyelmeztetést kapott Trump tweetje

A fekete öves twitterezőnek számító amerikai elnök bejegyzését első ízben ítélte neccesnek a szolgáltató. Természetesen a felháborodott reakció sem maradt el.
 
A biztonság kiszervezéséhez komoly bizalmi tőke kell, ami lassan épül fel, de tartósabb is, mint a betyárbecsület.

a melléklet támogatója a Euro One

Hirdetés

Így érdemes kialakítani a biztonságfelügyeletet

A jó példákért nem kell messze menni. Az alábbiakban csupa magyarországi bevált gyakorlat következik.

Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Mi köze az IBM licencszerződések apró betűs kitételeinek ahhoz, hogy a Microsoft Windows Server 2008 életciklusának végéhez ér? Rogányi Dániel (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2020 Bitport.hu Média Kft. Minden jog fenntartva.