Két kutató alapos kísérletben igazolta: immár képtelenek vagyunk megkülönböztetni a valódi embereket a számítógép által generált mesterséges fotóktól.

Egyre nehezebb helyzetben van az emberiség, hiszen a technológia fejlődése mára eljutott oda, hogy tényleg nem vagyunk képesek megkülönböztetni a szintetikusan előállított tartalmakat a valóditól. Hogy ez mennyire így van, arra egy frissen publikált kutatási projekt eredménye szolgáltat tudományos bizonyítékot.

Ál/arc

Az angliai Lancesteri Egyetem és az amerikai Berkley egy-egy szakértője által jegyzett kísérletsorozatban arra keresték a választ, hogy a tesztbe bevont önkéntesek milyen hatékonysággal képesek megállapítani egy eléjük tett portréfotóról, hogy az valódi embert ábrázol, avagy egy szintetikusan "megálmodott" arcról van szó.

A három részből álló kísérlet első fázisában a résztvevők mindössze 48,2 százalékban azonosították sikeresen a mesterségesen komponált felvételeket. Ez meglehetősen rossz arány, hiszen a vakszerencsén alapuló pénzfeldobásos módszerrel is ennél valamivel jobb eredmény lenne várható.

Ezt követően a tesztalanyokat némi gyorstalpaló képzésben részesítették. Elmondták nekik, milyen dolgokra érdemes figyelni, amikor algoritmusok által készített arcokat akarunk kiszűrni. Ezzel a tudással felvértezve enyhe javulás volt tapasztalható, és a valód embereket nagyjából 59 százalékos találati aránnyal voltak képesek beazonosítani a résztvevők.

A legérdekesebb eredményre a harmadik feladatban jutottak a kutatók. Itt arra kérték a jelentkezőket, hogy egy 1-től 7-ig terjedő skálán értékeljék az eléjük rakott arcokat aszerint, hogy mennyire tűnik számukra megbízhatónak az adott személy. A résztvevők a mesterséges intelligencia teremtette fejeket megbízhatóbbnak tartották a valódi emberekről készült fotóknál. A megbízhatóság érzetét nagyban növelheti például egy mosoly is, ám a teszt során használt mintáknál kevesebb volt a mosolygó arc a gép által előállított fotókon, mint a valódi embereket ábrázoló képeken, azaz nem emiatt kerülhetett "megbízhatósági fölénybe" az algoritmus.

Diverzifikált portfólió

A projekthez szükséges szintetikus képeket az ilyen jellegű feladatoknál már hosszú évek óta bevetett generative adversarial network (GAN) technológiával csiszolták tökéletesre. Ebben két mesterséges intelligencia "versenyez" egymással. Az egyik hálózat a generator (a képek létrehozója), a másik pedig a discriminator, amely megpróbálja kiszúrni a nem valódi felvételeket. A visszacsatolás révén az előbbi MI folyamatosan tanul, és egyre jobb eredményre lesz képes. Pár éve a GAN még gyakran mellé nyúlt mondjuk egy fülbevaló megjelenítésénél, ám a jelek szerint mostanra szintet lépett az algoritmusos megtévesztés minősége.

A kutatók nagyon ügyeltek a megfelelő alapkészlet kiválasztására is. A teszt során használt 400 valódi és 400 gép által megalkotott portré nemre, bőrszínre és egyéb paraméterekre nézve is vegyes portfóliót alkotott. Ez azért fontos kitétel, mivel a korábbi hasonló kísérletekben jellemzően felülreprezentálva voltak a fehér férfiakat ábrázoló képek. Érdekes módon a résztvevők pont erről a csoportról tudták a legrosszabb arányban megállapítani, hogy valódi, avagy kreált felvétellel van dolguk. A szakemberk hipotézise szerint ennek az az oka, hogy a gépi tanuláshoz használt adatkészletekben is többségben vannak ezek a minták, így az algoritmus a gazdagabb felhozatalból realisztikusabb végeredmény megalkotására képes.

Nem hihetünk a saját szemünknek se

Természetesen mindez egy újabb intő jel azzal kapcsolatban, hogy mennyire komoly veszélyt jelentenek a mesterségesen manipulált fotók, videók és egyéb anyagok. A deep learning és a fake (mélytanulás és a hamisítvány) szavakból képzett deepfake egyre látványosabb karriert fut be a tévésorozatok gyors és élethű szinkronizálásától kezdve egészen a sikeres bankrablásokig, a dezinformációs kísérletek eddigi hatásai pedig ezen a területen is arra figyelmeztetnek, hogy mennyire fontos lenne az ilyen technológiai alkalmazások és a "támadó MI" szabályozása. Az utóbbi időben már nem is csak technológusok, hanem a témát jól ismerő más szakemberek is gyakran beszélnek azokról a veszélyekről, amelyeket a deepfake jelent a társadalomra.

Cloud & big data

Egyre furcsábbak lesznek a CAPTCHA tesztek, ahogy a gépek is okosodnak

Már nagyon jók például például a fényképek címkézésében, de a logikai összefüggéseken könnyen fennakadnak. Igaz, ezzel így lehet némelyik emberi felhasználó is.
 
Hirdetés

Adathelyreállítás pillanatok alatt

A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.

A válasz egyszerű: arról függ, hogy hol, hogyan és milyen szabályozásoknak és üzleti elvárásoknak megfelelően tároljuk az információt. A lényeg azonban a részletekben rejlik.

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.