A generatív mesterséges intelligenciával gyártott képek az utóbbi időben többféle módon is felfordulást okoztak az ellopott műalkotásoktól a politikai hirdetésekig és az online félretájékoztatási hullámokig, ezzel párhuzamosan pedig zajlik az egyre jobb generátorok és az egyre jobb diszkriminátorok (az eredeti és a mesterségesen létrehozott adatokat megkölönböztető hálózatok) versenye. Ezek egymás eredményeire építve lépkednek a következő szintekre, sőt már az MI betanításra szolgáló adatkészletek is csatatérnek számítanak: februárban például arról számoltunk be, hogy a Chicagói Egyetem kutatói új technikát fejlesztettek a művészek védelmére a stílusukat másoló MI-modellekkel szemben.
A New York Times múlt heti beszámolója szerint azonban úgy áll a helyzet, hogy a mesterséges intelligencia nyomait kereső szoftverek egyelőre könnyen megtéveszthetők, legalábbis a képeket illetően. Az anyagokhoz egyszerűen olyan textúrát kell utólag hozzáadni, ami az eredetinél szemcsésebbé teszi a fotókat, és ezzel el lehet intézni, hogy a legjobb programok hatékonysága 99 százalékról akár 3,3 százalékra zuhanjon vissza, vagyis harmincszor bizonytalanabbá váljanak az MI által generált képek azonosításában. Ahogy a lap is emlékeztet rá, ez már csak azért sem jó hír, mert a diszkriminátorok a frontvonalban működnek az MI bevetésével végzett félretájékoztatás elleni küzdelemben.
Nem ússzuk meg, az MI nem fog helyettünk gondolkodni
A cikk alapján a Hive és más gyártók rendszerei, amelyek máskor a legjobb találati arányokat produkálják, nem voltak többé képesek megfelelően azonosítani a mesterséges intelligenciával készített fotókat, miután a szerkesztők pixelesbbé tették azokat. A szakértők így arra figyelmeztetnek, hogy nem lenne szabad kizárólag az ilyen programokra támaszkodni a dezinformáció és a hamisított tartalom terjesztése elleni védekezésben. Az MI egyre jobb lesz az emberi beavatkozások imitálásában, így a különbségeket is egyre nehezebb lesz kiszűrni, ha a fotók megváltoznak az eredeti kimenetükhöz képest, miközben a rossz minőségű képek egyébként is gondot okoznak a diszkriminátoroknak.
Utóbbiak szokatlan mintákat keresnek a pixelek elrendezésében, beleértve az élességet és a kontrasztot is, amelyek a Midjourney és más generátorok fotorealisztikus alkotásaira jellemzőek. A képek torzítása, átméretezése vagy a felbontásuk csökkentáse azonban értelemszerűen megváltoztatja a pixeleket, eltüntetve az érzékelőszoftverek által keresett digitális jeleket. Érdemes egyébként megjegyezni, hogy azok a felvételek kontextusát amúgy sem értelmezik, tehát nem értékelik gyanúsabbnak az olyan fotókat, amelyek valószerűtlen dolgokat vagy történéseket mutatnak. Ez pedig újabb érv arra, hogy miért nem érdemes kizárólag ezekre a technológiákra támaszkodni a hamisítványok ellenében.
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?