Első ízben került rá sor, hogy az Egyesült Királyságban állásinterjúkon is bevetették a mesterséges intelligenciát, illetve az MI-re épülő az arc- vagy arckifejezés-felismerő technológiát. A The Telegraph riportja szerint az Unilever is azok között a társaságok között van, amelyek ilyen eszközökkel elemzik a jelentkezők szóhasználatát, hangszínét és arcjátékát, amikor a meghirdetett állásokkal kapcsolatos kérdéseket tesznek fel nekik. Az algoritmusok ennek alapján egy több tízezer arcmást és lingvisztikai mintát tartalmazó adatbázisra támaszkodva választják ki a szerintük legalkalmasabbakat.
Az Unilever a lap beszámolója szerint az amerikai HireVue fejlesztését használja. A jó tizenöt éve működő Utah-állambeli cég több száz ügyfele között olyan márkákat találunk, mint a Vodafone, a Nike, az Intel, a Hilton vagy a Qantas, ígérete szerint pedig az elsősorban szövegelemzésre épülő technológiájával hatékony döntéstámogatást nyújt a felvételi folyamat során. Ez a HireVue olvasatában egyrészt azt jelenti, hogy az MI bevonása megbízhatóbb és tárgyilagosabb módon jelzi előre a jelöltek várható jövőbeni teljesítményát, másrészt felgyorsítja az interjúztatást, vagyis az ügyfelek adott idő alatt jóval több pályázót vizsgáztathatnak le.
A szóhasználat elemzése a már jól ismert varázslást algoritmizálja: nagyjából 350 paraméter alapján precízen megmutatja, hogy a jelentkezők az "én" vagy a "mi" névmásokat használják többet, milyen hosszú mondatokat alkotnak, melyek a leggyakrabban használt kifejezéseik, mennyire vannak otthon a szakmai kifejezésekben. A rendszer ugyanígy felhívja a fgyelmet az olyan szempontokra, mint hogy a lassabb beszédű emberek valószínűleg kevésbé hatékonyan győznek meg másokat egy telefonbeszélgetés során, akinek viszont percenként 400 vagy annál is több szó hagyja el a száját, annál nehezen fogják érteni, hogy mit akar valójában.
Elvileg jó ötlet, de a gyakorlatban inkább ijesztő
A The Telegraph cikke kitér azokra a figyelmeztetésekre is, amelyek mindig felbukkannak az ilyen és hasonló megoldások kapcsán. Ezek szerint a mesterséges intelligencia, a szövegelemző és arcfelismerő technológiák szükségszerűen elfogultak: a programok eleve visszatükrözik a készítőik gondolkodását, a tanulásra képes rendszerek pedig igen érdekes és egyoldalú következtetéseket is levonhatnaka rendelkezésükre álló mintákból. Ez egyrészt azt jelenti, hogy az MI leképzi és újratermeli az uralkodó attitüdöket vagy sztereotipiákat, másrészt olyan
Majdnem pontosan egy évvel ezelőtt számoltunk be az Amazon hasonló kísérletéről, amelynek során a cég saját fejlesztésű algoritmusa állítólag látványosan súlyozni kezdte a jelentkezők nemét, hátránynak tekintve, ha nőnemű pályázó jelentkezett az adott állásokra. Ennek oka minden bizonnyal az volt, hogy a modellben meghatározták mindazokat a képességeket és fogalmakat, amelyeket különösen fontosnak tekintettek, ezek pedig jellemzőbben a férfiak önéletrajzában fordultak elő – különösen, hogy az Amazon adatbázisában jórészt férfiaktól származó önéletrajzok szerepeltek.
Az öntanuló rendszer ezután teljesen logikus módon a jelentkezők nemét is összekapcsolta a feltételezett alkalmassággal, és a végén már odáig jutott a dolog, hogy a rendszer például azt is negatívumként osztályozta, ha valaki korábban egy női sakkcsapatot vezetett, vagy lányiskolában folytatta a középfokú tanulmányait. A Reuters beszámolójából kiderült, hogy az MI döntései persze más tekintetben sem voltak kiegyensúlyozottak, így a program sokszor olyan jelentkezőket támogatott, akik képzetlenek vagy általában alkalmatlanok voltak a munkakörök betöltésére.
A mostani esetben is minimum aggályos, hogy a 15 perces beszélgetések során mintegy 25 ezer adatponttal operáló program még mindig nem elég fejlett a hihetetlenül összetett emberi beszéd vagy testbeszéd értelmezéséhez és értékeléséhez, ami hátrányosan érinti a normáktól bármennyire is eltérő jelentkezőket. Felmerül ugyanakkor az a kérdés is, hogy mennyire változatos adatkészleteken tanítják be a rendszereket, mert ebből ugyanolyan könnyen származhat az az egyoldalú és elfogult működés, amely tisztességtelen módon diszkriminálja az adott háttérrel rendelkező pályázókat.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak