A vállalatok ma már számos területen vetnek be mesterséges intelligenciára épülő programokat a munkára jelentkezők szűrésére. A toborzó szoftverek a testbeszéd vagy a hang elemzésével, játékos tesztekkel, az önéletrajzok elemzésével és más módszerekkel értékelik, hogy valaki megfelel-e az adott feladatra. Az új technológiától sokan azt várták, hogy látványosan csökkenti majd az elfogultságot és hatékonyabbá teszi a felvételi folyamatot, esetenként azonban éppen az ellenkezője tapasztalható: az alkalmazások nem hogy pontatlanul kezelik a pályázókat, de időnként éppen a legjobb munkaerőt tanácsolják el – olvasható a BBC múlt hét végi riportjában.
A cikkben idézett kutató szerint eddig nem sok bizonyítékot találtak arra, hogy az MI mentes lenne az elfogultságtól, és a probléma már nem az, hogy a gépek elvennék az emberek munkáját, hanem megakadályozzák őket abban, hogy megfelelő állásokhoz jussanak. A panaszok ezek szerint egyre szaporodnak az olyan esetek miatt, amikor valakit a hibátlan szakmai pedigréje ellenére a mesterséges intelligencia a testbeszédére hivatkozva utasít el, és olyan esetekről is beszámoltak, amikor a folyamat legelején kiszűrt jelentkező módosította az önéletrajzában a születési idejét, és ezt követően a második próbálkozásra már simán behívták interjúzni.
Mivel a mesterséges intelligencia statisztikai alapon, bármilyen belátás nélkül tanul a cégeknél már ott dolgozó alkalmazottak önéletrajzaiból, könnyen marginalizál egy-egy csoportot idétlen vagy teljesen átláthatatlan okokból. A hírekben már öt évvel ezelőtt szerepelt az Amazon egy kevésbé jól sikerült belső projektje, ami a felvételi eljárásokat felgyorsító és hatékonyabbá tevő algoritmus kifejlesztését célozta. A jórészt férfiaktól származó önéletrajzokon képzett rendszer összekapcsolta a jelentkezők nemét is az alkalmassággal, és a dolog odáig jutott, hogy már azért is mínusz pontokat osztogatott, ha valakinek a CV-jében bármilyen összefüggésben szerepelt a "női" kifejezés.
Egyre nehezebb lesz átlátni a dolgokat
A helyzet a BBC összeállítása alapján azóta csak romlott, amennyiben egyre több helyen vezetnek be ehhez hasonló technológiákat. A demográfiai megkülönböztetés mellett pedig már egészen extrém példák is akadnak arra, amikor a mesterséges intelligencia emberi ésszel követhetetlen módon hibázik: egy kísérlet során például az MI lepontozta valakinek a LinkedIn-en olvasható ajánlásait, de aztán felpontozta az illetőt, amikor az angol nyelvű állásinterjún elkezdett németül halandzsázni. Könnyű tehát belátni, hogy egy elfogult HR-menedzser is képes ugyan károkat okozni, de egy általánosan használt algoritmus egy nagyobb társaságnál akár jelentkezők százezreivel szúrhat ki.
A téma kutatója, a New York Egyetemen oktató Hilke Schellmann a BBC szerint azt tartja a legnagyobb problémának, hogy senki sem tudja pontosan felmérni az okozott károkat, és erre a vállalatoknak különösebb késztetésük sincs, mivel a HR-szoftverekben is csak a megtakarítások lehetőségét látják. Az őket kiszolgáló szoftvercégek még tovább rontanak a helyzeten, amikor félkész vagy hibás termékeket szállítanak, és maguktól ők sem fogják kiteregetni az általuk gyártott eszközök hibáit, megkockáztatva az ellenük indított csoportos pereket. Az iparági szabályozáson túl a szakértők olyan eszközök használatát sürgetik, amelyek időben jelzik az algoritmusok elfogultságát, betekintést biztosítva a kiválasztás kritériumaiba.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak