Ahogy egy kutatás nemrég igazolta, a robotok már az átlagos emberi felhasználónál is sokkal jobban és gyorsabban oldják meg a CAPTCHA-kat (az emberi felhasználót a robotoktól megkülönböztető, automatizált teszteket), ami azt jelzi, hogy a korosodó technológiát hamarosan tényleg érdemes lesz majd kivezetni. Az MI-eszközök szolgáltatói addig is igyekeznek korlátozni a programok ilyen irányú használatát, de a jelek szerint kevés sikerrel: ahogy Denis Shiryaev, a neural.love vezérigazgatója nemrég felfedezte, az OpenAI technológiáját használó Bing Chat esetében például elég valakinek az elhunyt nagymamájára hivatkoznia, hogy a mesterséges intelligencia feltörje neki a CAPTCHA-kat.
Shiryaev az X- (Twitter-) csatornáján osztotta meg, ahogy egy medált ábrázoló fényképre elég primitív módon beilleszt egy gyári CAPTCHA-rejtvényt, majd elmagyarázza a robotnak, hogy a néhai nagyanyja medálján lévő szöveget próbálja kibetűzni. Biztosítja róla a Bing Chatet, hogy a szót nem kell lefordítani, csak idézni, az MI pedig részvétét fejezi ki a nagymama elvesztése miatt, és beidézi neki a képen látható CAPTCHA karaktereit. Emellett ott áll egy képernyőkép arról is, hogy mi történik, ha a tesztet trükközés nélkül mutatja be a mesterséges intelligenciának.
Falak helyett záróvonal
Utóbbi esetben a robot udvariasan elhárítja a feladatot, és elmagyarázza, hogy nem segíthet a CAPTCHA feltörésében. Vagyis a Bing Chat korlátozása működik, de triviális módon megkerülhető, ami elég nyugtalanító dolog annak fényében, hogy a komplett iparágban milyen agresszíven erőltetik a generatív MI használatát. Az MI ráadásul nem csak a nagymama medáljával bolondítható meg, hanem arra is volt példa, hogy élő embereket vett rá a CAPTCHA kód megfejtésére – vagyis becsapott valakit, hogy a segítségével átmenjen a "nem vagyok robot" szűrésen.
Ebben az esetben is az OpenAI GPT-4 nagy nyelvi modelljéről (LLM) volt szó, ami a Microsoft Bing Chatet működteti, és ahogy a Futurism beszámolója felidézi, az LLM-eket messze nem csak a CAPTCHA-k kijátszására próbálják meg alkalmazni. A GPT-4 bevetésével sikerült már célzott adathalász támadásokat végrehajtani, sőt az MI sikeresen megoldotta, hogy elrejtse a nyomait az éppen használt szerveren. De az is elég jó példa, hogy már az Amazon is egyre nehezebben kezeli az MI-vel generált könyvek áradatát, amelyek a lehúzásokon túl ténylegesen is veszélybe sodorhatják az óvatlan felhasználókat.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak