Új módszert találtak a mesterséges intelligenciával alkotott képmások kiszűrésére: azokat a technikákat alkalmazzák, amelyeket a csillagászok is használnak a megfigyeléseik elemzése során.

A londoni székhelyű Királyi Csillagászati Társaság (Royal Astronomical Society, RAS) rendezvényén mutatták be annak a kutatásnak az eredményeit, amelynek megállspítása szerint a mesterséges intelligencia által generált mélyhamisítások (deepfake) hatékonyan szűrhetők ki a képeken szereplő emberek szemeineak elemzésével. A University of Hull munkatársai egész pontosan a szemgolyókban való tükröződéseket vizsgálták, méghozzá ugyanazzal a technikával, amivel a csillagászok a galaxisokról készült felvételeket elemzik, és a módszert hatékonynak találták az MI-vel létrehozott alakok azonosításában.

Az RAS oldalán olvasható közlemény ezt úgy foglalja össze, hogy a valós személyek szemgolyói konzisztens tükröződéseket mutatnak, míg a mesterséges képmások fizikai szempontból helytelenül ábrázolják jelenséget. A csillagászatban használt módszerek a visszaverődések és a fényeloszlás számszerűsítésében kapnak szerepet, lehetővé téve a bal és a jobb szem tükröződései közötti összhang vizsgálatát. A tükröződések és morfológiai jellemzők összehasonlításával pedig arra a következtetésre jutottak, hogy a mélyhamisításoknál gyakran mutatható ki különbség az egyes szempárokat illetően.

Nem tökéletes, de remek alapot adhat

Ahogy a kutatók is felhívják rá a figyelmet, ma már a mesterséges intelligencia alkalmazása a képek létrehozását tekintve is egyre inkább "a tömegek kezében van", ami azt jelenti, hogy egyre fontosabbá válik a hamisítványok azonosításának képessége. Hozzáteszik azonban, hogy az általuk bemutatott technika "nem egy ezüstgolyó" az MI-vel generált képek észlelésére, mivel egyaránt képes hamis pozitív és hamis negatív eredményeke produkálni. A módszert mindenesetre jó "alapnak és támadási tervnek" tekintik a szakemberek a deepfake anyagok felderítését célzó "fegyverkezési versenyben".

Ahogy korábban írtuk, a közelmúltbeli estek egyre inkább rávilágítnak arra, hogy mennyire nincs megfelelően szabályozva a deepfake a világ számos pontján, és hogy mennyire nehéz megakadályozni az ilyen tartalmak terjesztését az interneten. A dolgot súlyosbítja, hogy a MI-modellek a jelek szerint nincsenek biztonságban azoktól a rosszhiszemű próbálkozásoktól sem, amelyek megpróbálják rávenni a rendszereket a tervezők szándékával ellentétes kimenetek előállítására, így a generatív mesterséges intelligencia első néhány generációját meghatározzák a visszaélések és a rendellenességek.

a kép forrása: Adejumoke Owolabi, University of Hull

Közösség & HR

Már a rajtnál megmakkant Donald Trump kriptoüzlete

Korábban 300 millió dollárra számítottak a World Liberty Financial (WLFI) tokenek eladásából, első körben 12 millió jött össze belőle.
 
Hirdetés

ITSM a gyakorlatban

Három fájdalompont, amire az IT szolgáltatásmenedzsment gyors válaszokat adhat.

Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.

a melléklet támogatója a Clico Hungary

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.