A Stanford Egyetem pszichológusa, Michal Kosinski szerint az általa fejlesztett MI az arc szkennelésével képes nagy pontossággal meghatározni az egyes személyek intelligenciáját, szexuális preferenciáit, vagy akár politikai beállítottságát. A Business Insider riportjában a tudós figyelmeztetésnek nevezi saját munkáját a közösség és a döntéshozók számra a hasonló kutatások lehetséges veszélyeivel kapcsolatban – más kérdés persze, hogy az ilyen figyelmeztetés Pandóra szelencéjeként is értelmezhető, amennyiben részletes útmutatóként szolgálhat a rosszhiszemű törekvésekhez, és közelebb visz a Különvélemény sci-fi helyzetéhez is.
A cikk szerint maga Kosinski is tisztában van azokkal a rossz ízű párhuzamokkal, amelyek kutatásait hasonlatossá teszik a 19. századi frenológiához, vagy akár a faji megkülönböztetés igazolására használt eugenikai elméletekhez. Ami szerinte megkülönbözteti mindezektől a képi adatokat feldolgozó mesterséges intelligencia és a pszichometria együttes alkalmazását, az a módszerek hatékonysága: egy korábban publikált közös tanulmányában például olyan arcfelismerő modellről számolt be, ami 72 százalékos pontossággal képes megjósolni valakinek a politikai meggyőződését az arcáról készült fénykép alapján, szemben az emberi megfigyelők 55 százalékos, vagyis a pénzfeldobásnál alig jobb rátájával.
Egy másik publikációjában olyan modellt ismertetett kollégáival, ami ugyanilyen módon 91 százalékos pontossággal jelzi a szexuális irányultságot (erre az emberek a cikk szerint 61 százalékos hatékonysággal képesek), és amit sokan ugyanúgy veszélyesnek és hibásnak tartottak, mert felhasználható a megkülönböztetésre. Az ilyen kutatásokba ugyanis nem nehéz belelátni a disztópikus felhasználási eseteket, és már a közzétételük is inspirációt adhat a diszkriminációt támogató megoldások létrehozásához. Nem beszélve arról, hogy a modellek sohasem lesznek 100 százalékosan pontosak, vagyis bárkit megcélozhatnak tévesen.
Ez sem hangzik nagyon jól
Kosinski a BI riportjában is felhívja rá a figyelmet, hogy munkájuknak egyáltalán nem célja a privát szférát szétromboló eszközök fejlesztése, hanem azt próbálják bemutatni, hogy az egyre szélesebb körben használt arcfelismerő technológiák milyen veszélyeket rejtenek. Az elért eredményekkel ezért a közvéleményt és a döntéshozókat ösztönzné a kockázatokat csökkentő technológiák és irányelvek megalkotására – bár ilyen értelemben a cikkben is "a mesterséges intelligencia Oppenheimerei" közé sorolják, akik úgy figyelmeztetnek az MI pusztító potenciáljára, hogy ők maguk segítik annak bekövetkeztét.
Ahogy a kommentárok kiemelik, már ma is rengeteg valós példánk van rá, amikor az arcfelismerő rendszerek éppenséggel rontják az emberek életkörülményeit és jogi biztonságát, a rendszerszintű megkülönböztetés pedig új értelmet nyer, ha a statisztikai alapon működő mesterséges intelligenciát az elfogultságaink alapján programozzuk. Kosinski negatív forgatókönyve szerint egyébként megszülethet majd az az MI-rendszer, amelyik alaposan áttanulmányozta és elsajátította az emberekre jellemző előítéleteket, és szinte belelát majd az elménkbe. Ennek megfelelően pedig mesteri manipulátor lesz: erőszakra sem lesz szüksége semmihez, mint a fikciós Skynetnek, mert mindenki imádni fogja.
Részletek a Business Insider összeállításában »
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak