Hallotta már a deepfake videó kifejezést? Itt az idő megtanulni, mert a mesterséges intelligencia eljutott arra a szintre, hogy többé annak se higgyünk, amit a saját szemünkkel látunk.

Tulajdonképpen roppant primitív a deepfake videók működési elve: létező, már leforgatott filmekben teszi lehetővé a benne szereplők arcának lecserélését olyan emberekére, akiknek semmilyen közük sem volt az eredeti alkotáshoz. A mesterséges intelligencia kellően sok képből létre tudja hozni azt a modellt, amit aztán a technika fejlődésével egyre valósághűbben tud beilleszteni egy filmbe. Például egy felnőtteknek szánt erotikus filmbe...

Csodálkozhat a csodanő

A gépi tanulás technikájára támaszkodva három, viszonylag egyszerű lépésben lehet átverni a gyanútlan nézőket. Elsőként a célpontról kell néhány fotó, minél több, annál jobb. Annál könnyebb dolga lesz ugyanis az MI-nek, hogy a lehető leghihetőbbé tegye az illető szereplését a filmben. Ezt követően ki kell választani a mozgóképes tartalmat, amiben a készítő viszont szeretné látni a kiszemelt személyt. Végül a szerkesztést rá kell bízni a mesterséges intelligenciára, mely filmhossztól függően akár 1-2 napot is elpiszmoghat a feladattal.

Már jó pár ilyen videó készült az elmúlt hetekben, hónapokban, érthető módon a celebritásokat célzó alkotások lettek a legnépszerűbbek. A csodanőt (wonderwoman) játszó Gal Gadot így volt kénytelen magát egy pornófilmben viszontlátni, de számos másik híresség is azzal szembesült, hogy olyan művekben bukkan fel, amikben valójában nem ő szerepel.

De nem csak hírességekre korlátozódik a deepfake videók új trendje. A közösségi médiában saját maguk által közzétett képdömping révén mindenki célpont lehet. A jelenség fő mozgatórugója, hogy kis túlzással bárki készíthet ilyen filmeket. A deepfake videó jelenséget elindító Reddit felhasználó azóta elkészítette (kicsit bugos) appját, melyet elérhetővé is tett azok számára, akik kipróbálnák magukat a hamis mozgóképes alkotások készítésében és terjesztésében.

Igaz, azért a dolog nem marad következmények nélkül. Azt a Reddit csoportot, ahol a korábban már említett Gal Gadot "vendégszereplése" volt megtekinthető, az üzemeltető egyszerűen letiltotta. És még ez a jobbik eset, hiszen a művésznő akár pert is indíthatott volna, személyiségi jogai megsértése miatt (persze, nem kizárt, hogy ettől függetlenül meg fogja tenni).

Nagyjából tehetetlenek vagyunk ellene

Az azonban minimum kérdéses, hogy sikerrel járna-e. Egyáltalán nem könnyű teljesen eltávolítani az internetről a sértő tartalmakat; ha az eredeti mű jogtulajdonosa nem jelentkezik, akkor szinte semmi esély nincs rá. Ráadásul az Egyesült Államokban ott van az Alkotmány szólásszabadságot védő első kiegészítése, ami számos esetben a deepfake videókat készítők jogait (is) védik.

Apropó, készítők. A kamuvideók eltüntetésénél egy nehezebb dolog akad az ügyben: megtalálni azokat, akik összehozták őket. A Redditen még viszonylag könnyű dolga van annak, aki kellően nagy anyagi bázissal rendelkezik és türelmes; az általa megfizetett ügyvédek előbb-utóbb elő tudják keríteni az alkotókat. De mi a helyzet a más országokban, például Oroszországban készült művekkel, azok alkotói totális névtelenségbe burkolózhatnak? A kérdés természetesen költői.

Szerencsére az olyan nagyok, mint a Reddit, a PornHub és a Twitter, bejelentették, hogy kitiltják a deepfake tartalmakat szolgáltatásaikból. Ugyanakkor a Gadot deepfake videó egy gyors webes kereséssel pár másodperc alatt előkereshető, például a Redtube szolgáltatásában a cikk írásának időpontjában is elérhető.

„Fel kell készülnünk arra a világra, amiben rutinosan keverednek a megbízható és hamis képek és videók” – intette óva az emberiséget Eric Goldman, a Santa Clara Egyetem Jogi Karának professzora.

A hamispornó még a legkisebb rossz

Az egyénnek persze nagy megrázkódtatást jelenthet, ha rosszakarója olyan filmbe ülteti át az MI révén az arcát, melyben nem szívesen szerepelne. Van azonban egy sokkal nagyobb horderejű következménye is a deepfake videóknak. Megjelenésükkel többé sosem lehetünk biztosak abban, hogy valóban az eredeti anyagot látjuk, vagy egy manipulált felvételt, melyen a rajta látható személy, a látottak és a hallottak ellenére sosem szerepelt.

Jól mutatja a lenti Barack Obama videó, mire képes a technika napjainkban. A korábbi amerikai elnök számos beszédét elemző mesterséges intelligencia segítségével már elő lehetett állítani egy gyakorlatilag bárkit megtévesztő felvételt:

A jövő politikusai így egy korábbi, nem kívánt beszédüket bármikor ráfoghatják rosszakaróikra, és persze annak is egyre valósabb a veszélye, hogy tényleg készülnek deepfake videók fontos személyiségekről. Képzeljük el, ha egy összetett hackertámadás révén sikerülne bejutni egy országos televíziós hálózat rendszerébe, ahol leadnának egy rövid, látszólag Donald Trumpot mutató videót. A manipulált felvételen bármit mondhatna az elnök, például egy közelgő atomcsapás miatt mindenkit menekülésre bíztathatna, óriási káoszt okozva ezzel pillanatok alatt.

Van olyan pokoli, mint a Skynet?

Ahogy fejlődik az MI, a deepfake videókat készítő eszközök is mind kifinomultabbak lesznek. Egyre inkább valósághűvé válnak, és számos negatív hatást hozhatnak magukkal. Zsarolások eszközeként bukkanhatnak fel és hamis bizonyíték gyártható velük, hogy csak néhány példát említsünk. Éppen ezért óriási a felelősség a mesterséges intelligenciát fejlesztő szervezeteken. A deepfake videók trendjének megszüntetésére lehetőségük sincs, viszont olyan megoldások létrehozására igen, melyek szintén automatizált módon, hatékonyan képesek beazonosítani őket.

Vagyis hamarosan eljutunk az egymás ellen küzdő MI-k korába. Ennek eredményeként pedig sosem látott függőségbe kerülünk a mesterséges intelligenciától, hiszen saját érzékszerveink már nem lesznek elegendők ahhoz, hogy eldönthessük: mi az igaz és mi a hamis.

Cloud & big data

A testkamerák felvételei alapján készítene rendőrségi jelentéseket az MI

Pontosabban a Draft One nevű MI-alkalmazás fejlesztője, aki szerint jó ötlet rábízni az ilyesmit a totál megbízhatatlan mesterséges intelligenciára.
 
Hirdetés

Adathelyreállítás pillanatok alatt

A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.

A válasz egyszerű: arról függ, hogy hol, hogyan és milyen szabályozásoknak és üzleti elvárásoknak megfelelően tároljuk az információt. A lényeg azonban a részletekben rejlik.

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.