Két kutató alapos kísérletben igazolta: immár képtelenek vagyunk megkülönböztetni a valódi embereket a számítógép által generált mesterséges fotóktól.

Egyre nehezebb helyzetben van az emberiség, hiszen a technológia fejlődése mára eljutott oda, hogy tényleg nem vagyunk képesek megkülönböztetni a szintetikusan előállított tartalmakat a valóditól. Hogy ez mennyire így van, arra egy frissen publikált kutatási projekt eredménye szolgáltat tudományos bizonyítékot.

Ál/arc

Az angliai Lancesteri Egyetem és az amerikai Berkley egy-egy szakértője által jegyzett kísérletsorozatban arra keresték a választ, hogy a tesztbe bevont önkéntesek milyen hatékonysággal képesek megállapítani egy eléjük tett portréfotóról, hogy az valódi embert ábrázol, avagy egy szintetikusan "megálmodott" arcról van szó.

A három részből álló kísérlet első fázisában a résztvevők mindössze 48,2 százalékban azonosították sikeresen a mesterségesen komponált felvételeket. Ez meglehetősen rossz arány, hiszen a vakszerencsén alapuló pénzfeldobásos módszerrel is ennél valamivel jobb eredmény lenne várható.

Ezt követően a tesztalanyokat némi gyorstalpaló képzésben részesítették. Elmondták nekik, milyen dolgokra érdemes figyelni, amikor algoritmusok által készített arcokat akarunk kiszűrni. Ezzel a tudással felvértezve enyhe javulás volt tapasztalható, és a valód embereket nagyjából 59 százalékos találati aránnyal voltak képesek beazonosítani a résztvevők.

A legérdekesebb eredményre a harmadik feladatban jutottak a kutatók. Itt arra kérték a jelentkezőket, hogy egy 1-től 7-ig terjedő skálán értékeljék az eléjük rakott arcokat aszerint, hogy mennyire tűnik számukra megbízhatónak az adott személy. A résztvevők a mesterséges intelligencia teremtette fejeket megbízhatóbbnak tartották a valódi emberekről készült fotóknál. A megbízhatóság érzetét nagyban növelheti például egy mosoly is, ám a teszt során használt mintáknál kevesebb volt a mosolygó arc a gép által előállított fotókon, mint a valódi embereket ábrázoló képeken, azaz nem emiatt kerülhetett "megbízhatósági fölénybe" az algoritmus.

Diverzifikált portfólió

A projekthez szükséges szintetikus képeket az ilyen jellegű feladatoknál már hosszú évek óta bevetett generative adversarial network (GAN) technológiával csiszolták tökéletesre. Ebben két mesterséges intelligencia "versenyez" egymással. Az egyik hálózat a generator (a képek létrehozója), a másik pedig a discriminator, amely megpróbálja kiszúrni a nem valódi felvételeket. A visszacsatolás révén az előbbi MI folyamatosan tanul, és egyre jobb eredményre lesz képes. Pár éve a GAN még gyakran mellé nyúlt mondjuk egy fülbevaló megjelenítésénél, ám a jelek szerint mostanra szintet lépett az algoritmusos megtévesztés minősége.

A kutatók nagyon ügyeltek a megfelelő alapkészlet kiválasztására is. A teszt során használt 400 valódi és 400 gép által megalkotott portré nemre, bőrszínre és egyéb paraméterekre nézve is vegyes portfóliót alkotott. Ez azért fontos kitétel, mivel a korábbi hasonló kísérletekben jellemzően felülreprezentálva voltak a fehér férfiakat ábrázoló képek. Érdekes módon a résztvevők pont erről a csoportról tudták a legrosszabb arányban megállapítani, hogy valódi, avagy kreált felvétellel van dolguk. A szakemberk hipotézise szerint ennek az az oka, hogy a gépi tanuláshoz használt adatkészletekben is többségben vannak ezek a minták, így az algoritmus a gazdagabb felhozatalból realisztikusabb végeredmény megalkotására képes.

Nem hihetünk a saját szemünknek se

Természetesen mindez egy újabb intő jel azzal kapcsolatban, hogy mennyire komoly veszélyt jelentenek a mesterségesen manipulált fotók, videók és egyéb anyagok. A deep learning és a fake (mélytanulás és a hamisítvány) szavakból képzett deepfake egyre látványosabb karriert fut be a tévésorozatok gyors és élethű szinkronizálásától kezdve egészen a sikeres bankrablásokig, a dezinformációs kísérletek eddigi hatásai pedig ezen a területen is arra figyelmeztetnek, hogy mennyire fontos lenne az ilyen technológiai alkalmazások és a "támadó MI" szabályozása. Az utóbbi időben már nem is csak technológusok, hanem a témát jól ismerő más szakemberek is gyakran beszélnek azokról a veszélyekről, amelyeket a deepfake jelent a társadalomra.

Cloud & big data

Rendőri fellépés vetett véget az első utcai ember-robot veszekedésnek

A kínai Makaón egy idős asszony támadta le a háta mögött tébláboló humanoidot, aki véletlenül alaposan ráijesztett.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.