Két kutató alapos kísérletben igazolta: immár képtelenek vagyunk megkülönböztetni a valódi embereket a számítógép által generált mesterséges fotóktól.

Egyre nehezebb helyzetben van az emberiség, hiszen a technológia fejlődése mára eljutott oda, hogy tényleg nem vagyunk képesek megkülönböztetni a szintetikusan előállított tartalmakat a valóditól. Hogy ez mennyire így van, arra egy frissen publikált kutatási projekt eredménye szolgáltat tudományos bizonyítékot.

Ál/arc

Az angliai Lancesteri Egyetem és az amerikai Berkley egy-egy szakértője által jegyzett kísérletsorozatban arra keresték a választ, hogy a tesztbe bevont önkéntesek milyen hatékonysággal képesek megállapítani egy eléjük tett portréfotóról, hogy az valódi embert ábrázol, avagy egy szintetikusan "megálmodott" arcról van szó.

A három részből álló kísérlet első fázisában a résztvevők mindössze 48,2 százalékban azonosították sikeresen a mesterségesen komponált felvételeket. Ez meglehetősen rossz arány, hiszen a vakszerencsén alapuló pénzfeldobásos módszerrel is ennél valamivel jobb eredmény lenne várható.

Ezt követően a tesztalanyokat némi gyorstalpaló képzésben részesítették. Elmondták nekik, milyen dolgokra érdemes figyelni, amikor algoritmusok által készített arcokat akarunk kiszűrni. Ezzel a tudással felvértezve enyhe javulás volt tapasztalható, és a valód embereket nagyjából 59 százalékos találati aránnyal voltak képesek beazonosítani a résztvevők.

A legérdekesebb eredményre a harmadik feladatban jutottak a kutatók. Itt arra kérték a jelentkezőket, hogy egy 1-től 7-ig terjedő skálán értékeljék az eléjük rakott arcokat aszerint, hogy mennyire tűnik számukra megbízhatónak az adott személy. A résztvevők a mesterséges intelligencia teremtette fejeket megbízhatóbbnak tartották a valódi emberekről készült fotóknál. A megbízhatóság érzetét nagyban növelheti például egy mosoly is, ám a teszt során használt mintáknál kevesebb volt a mosolygó arc a gép által előállított fotókon, mint a valódi embereket ábrázoló képeken, azaz nem emiatt kerülhetett "megbízhatósági fölénybe" az algoritmus.

Diverzifikált portfólió

A projekthez szükséges szintetikus képeket az ilyen jellegű feladatoknál már hosszú évek óta bevetett generative adversarial network (GAN) technológiával csiszolták tökéletesre. Ebben két mesterséges intelligencia "versenyez" egymással. Az egyik hálózat a generator (a képek létrehozója), a másik pedig a discriminator, amely megpróbálja kiszúrni a nem valódi felvételeket. A visszacsatolás révén az előbbi MI folyamatosan tanul, és egyre jobb eredményre lesz képes. Pár éve a GAN még gyakran mellé nyúlt mondjuk egy fülbevaló megjelenítésénél, ám a jelek szerint mostanra szintet lépett az algoritmusos megtévesztés minősége.

A kutatók nagyon ügyeltek a megfelelő alapkészlet kiválasztására is. A teszt során használt 400 valódi és 400 gép által megalkotott portré nemre, bőrszínre és egyéb paraméterekre nézve is vegyes portfóliót alkotott. Ez azért fontos kitétel, mivel a korábbi hasonló kísérletekben jellemzően felülreprezentálva voltak a fehér férfiakat ábrázoló képek. Érdekes módon a résztvevők pont erről a csoportról tudták a legrosszabb arányban megállapítani, hogy valódi, avagy kreált felvétellel van dolguk. A szakemberk hipotézise szerint ennek az az oka, hogy a gépi tanuláshoz használt adatkészletekben is többségben vannak ezek a minták, így az algoritmus a gazdagabb felhozatalból realisztikusabb végeredmény megalkotására képes.

Nem hihetünk a saját szemünknek se

Természetesen mindez egy újabb intő jel azzal kapcsolatban, hogy mennyire komoly veszélyt jelentenek a mesterségesen manipulált fotók, videók és egyéb anyagok. A deep learning és a fake (mélytanulás és a hamisítvány) szavakból képzett deepfake egyre látványosabb karriert fut be a tévésorozatok gyors és élethű szinkronizálásától kezdve egészen a sikeres bankrablásokig, a dezinformációs kísérletek eddigi hatásai pedig ezen a területen is arra figyelmeztetnek, hogy mennyire fontos lenne az ilyen technológiai alkalmazások és a "támadó MI" szabályozása. Az utóbbi időben már nem is csak technológusok, hanem a témát jól ismerő más szakemberek is gyakran beszélnek azokról a veszélyekről, amelyeket a deepfake jelent a társadalomra.

Cloud & big data

Hadat üzennek a Wikipedia szerkesztői az MI-szennyezésnek

Programot indítottak a Wikipédia védelmében a félrevezető, mesterséges intelligenciával generált információval szemben, ami általában is egyre nagyobb mértékben károsítja az online információs teret.
 
Hirdetés

A japán bölcsesség ereje: emberség a technológiai megoldások mögött

A globális válság súlyosan érintette az office piacot, ami a GLOBAL-UNION Kft. tevékenységét is veszélybe sodorta. A 100 százalékos magyar tulajdonban álló vállalat azonban a nehézségek közepette is megőrizte optimizmusát, és következetesen a legjobb döntéseket hozta.

A probléma szorosan összefügg a felhő miatt egyre népszerűbb mikroszerviz architektúrák és webalkalmazások, pontosabban a használatukhoz szükséges API-k terjedésével.

a melléklet támogatója a Clico Hungary

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.