Hallotta már a deepfake videó kifejezést? Itt az idő megtanulni, mert a mesterséges intelligencia eljutott arra a szintre, hogy többé annak se higgyünk, amit a saját szemünkkel látunk.

Tulajdonképpen roppant primitív a deepfake videók működési elve: létező, már leforgatott filmekben teszi lehetővé a benne szereplők arcának lecserélését olyan emberekére, akiknek semmilyen közük sem volt az eredeti alkotáshoz. A mesterséges intelligencia kellően sok képből létre tudja hozni azt a modellt, amit aztán a technika fejlődésével egyre valósághűbben tud beilleszteni egy filmbe. Például egy felnőtteknek szánt erotikus filmbe...

Csodálkozhat a csodanő

A gépi tanulás technikájára támaszkodva három, viszonylag egyszerű lépésben lehet átverni a gyanútlan nézőket. Elsőként a célpontról kell néhány fotó, minél több, annál jobb. Annál könnyebb dolga lesz ugyanis az MI-nek, hogy a lehető leghihetőbbé tegye az illető szereplését a filmben. Ezt követően ki kell választani a mozgóképes tartalmat, amiben a készítő viszont szeretné látni a kiszemelt személyt. Végül a szerkesztést rá kell bízni a mesterséges intelligenciára, mely filmhossztól függően akár 1-2 napot is elpiszmoghat a feladattal.

Már jó pár ilyen videó készült az elmúlt hetekben, hónapokban, érthető módon a celebritásokat célzó alkotások lettek a legnépszerűbbek. A csodanőt (wonderwoman) játszó Gal Gadot így volt kénytelen magát egy pornófilmben viszontlátni, de számos másik híresség is azzal szembesült, hogy olyan művekben bukkan fel, amikben valójában nem ő szerepel.

De nem csak hírességekre korlátozódik a deepfake videók új trendje. A közösségi médiában saját maguk által közzétett képdömping révén mindenki célpont lehet. A jelenség fő mozgatórugója, hogy kis túlzással bárki készíthet ilyen filmeket. A deepfake videó jelenséget elindító Reddit felhasználó azóta elkészítette (kicsit bugos) appját, melyet elérhetővé is tett azok számára, akik kipróbálnák magukat a hamis mozgóképes alkotások készítésében és terjesztésében.

Igaz, azért a dolog nem marad következmények nélkül. Azt a Reddit csoportot, ahol a korábban már említett Gal Gadot "vendégszereplése" volt megtekinthető, az üzemeltető egyszerűen letiltotta. És még ez a jobbik eset, hiszen a művésznő akár pert is indíthatott volna, személyiségi jogai megsértése miatt (persze, nem kizárt, hogy ettől függetlenül meg fogja tenni).

Nagyjából tehetetlenek vagyunk ellene

Az azonban minimum kérdéses, hogy sikerrel járna-e. Egyáltalán nem könnyű teljesen eltávolítani az internetről a sértő tartalmakat; ha az eredeti mű jogtulajdonosa nem jelentkezik, akkor szinte semmi esély nincs rá. Ráadásul az Egyesült Államokban ott van az Alkotmány szólásszabadságot védő első kiegészítése, ami számos esetben a deepfake videókat készítők jogait (is) védik.

Apropó, készítők. A kamuvideók eltüntetésénél egy nehezebb dolog akad az ügyben: megtalálni azokat, akik összehozták őket. A Redditen még viszonylag könnyű dolga van annak, aki kellően nagy anyagi bázissal rendelkezik és türelmes; az általa megfizetett ügyvédek előbb-utóbb elő tudják keríteni az alkotókat. De mi a helyzet a más országokban, például Oroszországban készült művekkel, azok alkotói totális névtelenségbe burkolózhatnak? A kérdés természetesen költői.

Szerencsére az olyan nagyok, mint a Reddit, a PornHub és a Twitter, bejelentették, hogy kitiltják a deepfake tartalmakat szolgáltatásaikból. Ugyanakkor a Gadot deepfake videó egy gyors webes kereséssel pár másodperc alatt előkereshető, például a Redtube szolgáltatásában a cikk írásának időpontjában is elérhető.

„Fel kell készülnünk arra a világra, amiben rutinosan keverednek a megbízható és hamis képek és videók” – intette óva az emberiséget Eric Goldman, a Santa Clara Egyetem Jogi Karának professzora.

A hamispornó még a legkisebb rossz

Az egyénnek persze nagy megrázkódtatást jelenthet, ha rosszakarója olyan filmbe ülteti át az MI révén az arcát, melyben nem szívesen szerepelne. Van azonban egy sokkal nagyobb horderejű következménye is a deepfake videóknak. Megjelenésükkel többé sosem lehetünk biztosak abban, hogy valóban az eredeti anyagot látjuk, vagy egy manipulált felvételt, melyen a rajta látható személy, a látottak és a hallottak ellenére sosem szerepelt.

Jól mutatja a lenti Barack Obama videó, mire képes a technika napjainkban. A korábbi amerikai elnök számos beszédét elemző mesterséges intelligencia segítségével már elő lehetett állítani egy gyakorlatilag bárkit megtévesztő felvételt:

A jövő politikusai így egy korábbi, nem kívánt beszédüket bármikor ráfoghatják rosszakaróikra, és persze annak is egyre valósabb a veszélye, hogy tényleg készülnek deepfake videók fontos személyiségekről. Képzeljük el, ha egy összetett hackertámadás révén sikerülne bejutni egy országos televíziós hálózat rendszerébe, ahol leadnának egy rövid, látszólag Donald Trumpot mutató videót. A manipulált felvételen bármit mondhatna az elnök, például egy közelgő atomcsapás miatt mindenkit menekülésre bíztathatna, óriási káoszt okozva ezzel pillanatok alatt.

Van olyan pokoli, mint a Skynet?

Ahogy fejlődik az MI, a deepfake videókat készítő eszközök is mind kifinomultabbak lesznek. Egyre inkább valósághűvé válnak, és számos negatív hatást hozhatnak magukkal. Zsarolások eszközeként bukkanhatnak fel és hamis bizonyíték gyártható velük, hogy csak néhány példát említsünk. Éppen ezért óriási a felelősség a mesterséges intelligenciát fejlesztő szervezeteken. A deepfake videók trendjének megszüntetésére lehetőségük sincs, viszont olyan megoldások létrehozására igen, melyek szintén automatizált módon, hatékonyan képesek beazonosítani őket.

Vagyis hamarosan eljutunk az egymás ellen küzdő MI-k korába. Ennek eredményeként pedig sosem látott függőségbe kerülünk a mesterséges intelligenciától, hiszen saját érzékszerveink már nem lesznek elegendők ahhoz, hogy eldönthessük: mi az igaz és mi a hamis.

Cloud & big data

Az amerikai hadsereg most egyetemekkel keres kiber-kecskebűvölőket

Annyira komolyan gondolják, hogy a hadsereg egyik kutatóintézete több mint 6 millió dollárral finanszíroz egy ötéves kutatási projektet.
 
Jó hír: ehhez rendelkezésre állnak a megfelelő eszközök. Az általánossá váló távmunka még jobban ráirányította a figyelmet, hogy az adatok biztosítása nem csak a cloud szolgáltatók, hanem legalább akkora részben a megrendelők felelőssége is.

a melléklet támogatója a Servergarden

Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2020 Bitport.hu Média Kft. Minden jog fenntartva.