Akármilyen látványossá is vált a mesterséges intelligencia és a gépi tanuló technológiák fejlődése az elmúlt években, egy dolog nem igazán változott velük kapcsolatban. Bár a gépek napról napra eredményesebbek, és egyre több olyan feladatra válnak alkalmassá, ami korábban alig volt elképzelhető, hibázni most is ugyanúgy szoktak – értve ez alatt, hogy amikor az ijesztően pontos algoritmusok mégis hibáznak, akkor azt látványos és megmagyarázhatatlannak tűnő módon teszik, vagyis úgy tévednek, ahogy egy ember soha nem tévedne.
Ez a jelenség egyben rámutat a gépi intelligencia alkalmazásának egyik nyugtalanító aspektusára: az új megoldások célja nyilván a hatékonyság növelése, de azok, akikre az algoritmusok hatással vannak, nem igazán értik vagy érthetik a működésüket. Egy önvezető autóban ülve például nyugtalanító lehet arra gondolni, hogy ez a rendszer is bármikor hozhat egy olyan döntést, mint amikor a kutyákat magabiztosan azonosító képfelismerő szoftver hirtelen ananászként jelöli meg a sokadik kutyás fotót.
Amikor komolyra fordul az ananász
Innentől lesz érdekes az a kérdés, hogy az autonóm jármű utasa tisztában van-e mindazokkal a lehetséges körülményekkel, amelyek között a gép esetleg hajlamossá válhat a megbízhatatlan működésre. Könnyű belátni, hogy a sofőröknek érteniük kell és oda kell rá figyelniük, ha mondjuk naplementekor az önvezető autó nem kezeli százszázalékos biztonsággal a kedvezőtlen fényviszonyokat, de a radiológusnak sem árt tudnia, hogy a gépi intelligencia milyen esetekben ad nagyobb eséllyel téves diagnózist.
A lényeg minden esetben az, hogy az új technológiák használatával egy olyan intuíciós hajlamot is ki kellene fejlesztenünk magunkban, ami segít kezelni a váratlan helyzeteket. A jó hír, hogy erre képesek lehetünk: a Johns Hopkins University kutatói szerint az embereknek megvan rá a képességük, hogy öntudatlanul is felfedezzék a rendszert a gépek hibái mögött. Kísérleteikben az alanyoknak a képfelismerésre tanított konvolúciós neurális hálózatok (CNN) által a képekre aggatott címkéit kellett megjósolniuk, különös tekintettel arra, hogy amikor az algritmust átverte egy-egy fotó, mennyire sikerült előrejelezniük a tévedést.
A szakemberek szerint a vizsgálatok megmutatták, hogy az emberek intuitív módon, mégis meglepően jó eredménnyel követték a gépek logikáját, még akkor is, amikor az látszólag teljesen irracionális hibákhoz vezetett. A VentureBeat magazinnak adott telefoninterjúban az egyik kutató kifejtette, hogy a gépek sokszor már felülmúlják az embereket a képek osztályozásában is, ám amikor tévednek, az ember képes megérteni, hogy mi téveszthette meg őket.
A kísérletekben összesen 1800-an vettek részt, az alapvető feladat pedig úgy nézett ki, hogy mindenkinek ki kellett választania a fejenként kiosztott 48 fotó mellett szereplő címkék közül, amelyiket szerinte a gép a felvételhez rendelné. Ezt komplexebb feladatok is követték, amikor már képpárokhoz rendelt címkéket kellett osztályozniuk aszerint, hogy melyik lehetett a CNN-ek első és második választása. A harmadik körben már 48 címkével kellett összehasonlítani a gép feltételezett preferenciáit a saját döntésekkel, utána olyan képeket kellett értékelni, amelyek szándékosan a képfelismerő algoritmusok megtévesztésére készültek és így tovább.
A helyzet nem tűnik reménytelennek
Az egyes kísérletek részletei ebben a publikációban követhetők. A dolog érdekessége mindenesetre abba áll, hogy az embereknek erőt kellett venniük magukon, felülemelkedve mindazon, amit nyilvánvalónak tartottak, és el kellett képzelniük, hogy mi lesz az, ami a gép szemében mégsem tűnik majd nyilvánvalónak. Az eredményt a kutatók úgy foglalták össze a fenti anyagban, hogy az emberi intuíció a feltételezettnél sokkal pontosabban vezet rá azokra az esetekre, amelyekben a gépek hibás osztályozásokat fognak megadni.
Amikor bárki elkezd használni valamilyen új technológiát, az interakció sikere nem csak azon múlik, ha a megfelelő helyzetekre nézve elsajátítjuk a kezelését, hanem azzal is tisztában kell lennünk, hogy a a szóban forgó technológia mikor mond csütörtököt. Ez különösen igaz lehet egy olyan korszakban, amikor nem csak a munkaerőpiacon értékelődik fel egyre jobban az MI-alapú rendszerekhez való affinitás, de lassan a hétköznapi életben is szükségünk lesz rá.
Banális példa, hogy nem szabad csodálkozni, ha tele szájjal beszélve a hangvezérelt asszisztens nem érti vagy félreérti a parancsokat – az MI és a gépi tanuló algoritmusok azonban ennél sokkal komolyabb kihívások elé is állíthatnak majd a jövőben, így jó tudni, hogy elvileg alkalmasak leszünk a kihívások kezelésére.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak