Május végén a mesterséges intelligenciát kutató szakembereket, jogászokat és hatósági képviselőket hallgatott meg egy amerikai alsóházi bizottság, ahol a mesterséges intelligencia, ezen belül is az arcfelismerő MI-technológiák szabályozásának szükségességét a próbálták felmérni a képviselők. Azokról a pontatlanságok ugyanis, amelyeket az ilyen szoftverek fejlesztése vagy gyakorlati felhasználásai során tapasztalnak, a technikai kérdéseken túl komoly társdalmi hatásokat is előrevetítenek – nem sokkal korábban San Franciscóban a helyi kormányzat fel is függesztette az ilyen technológiák alkalmazását, és a hírek szerint más amerikai nagyvárosok is hasonló intézkedésekre készülnek.
A több mint háromórás ülésen megszólalt az Algorithmic Justice League alapítója, Joy Buolamwini, aki a már piacosított technológiákról beszélt az arcfelsimerő technológiákkal foglalkozó aktivista csoport nevében. Felmerült mások mellett a rendszerek tanítására használt adatkészletek problémája, miután az MI gyengébben teljesít az olyan típusú felvételek elemzésében, amilyenekkel még nem találkozott, így a jellemzően fehér férfiak fotóin tanított algoritmus zavarba jön például, ha fekete nőket kellene azonosítania. Ez esetenként több mint egyharmad arányban jelent fals eredményeket, ami nyilvánvalóan messze fölötte van az elfogadható szintnek.
A meghallgatások második körére szerdán került sor a tudományos, űrkutatási és technológiai területekért felelős bizottság előtt. Az ülésen egy újabb fontos probléma került terítékre, mégpedig az, hogy a gépi tanulásban elért áttöréseknek köszönhetően az ilyen megoldások egyre több és több állampolgár életére vannak hatással, ugyanakkor az emberek – köztük a törvényhozók is – nagyon különböző szinten állnak az ilyen technológiák működésének ismeretét illetően. Bár a felvetések egy része most is olyan kérdésekre vonatkozott, mint mondjuk a fogyasztók irányítószám alapján történő diszkriminációja, mások bizarr módon az érző robotok témáját kezdték boncolgatni.
Rossz minőségű adatok, ellenőrzés nélküli betanítás
A mostani meghallgatáson is résztvevő Buolamwini "privilegizált tudatlanságnak" nevezte azt a jelenséget, hogy bizonyos csoportoknak sohasem kell szembesülniük az MI-rendszerek eltorzult működésével. Ilyenek legelsősorban a mesterséges intelligenciával foglalkozó tudósok, akik jellemzően fehér férfiak, és akiknek nem feltétlenül jut eszébe, hogy a rendszerek tanítására használt adatkészletek olyan modelleket eredményezhetnek, amelyek nem jól működnek a társadalom rajtuk kívül eső részében. Márpedig a technológiai óriáscégek és a legfontosabb kutatóközpontok közösségeire egyáltalán nem jellemző a sokszínűség a nemek, a bőrszín vagy a marginalizált társadalmi csoportok képviseletét illetően.
A "diverzitásválságnak" nevezett jelenség ráadásul szakmailag is megjelenik a mindenki életére hatással lévő rendszerek fejlesztésekor. Ahogy egy megszólaló fogalmazott, nem egészséges, ha ezek a csapatok a húsz számítástechnikusból és egy darab jogászból állnak, miközben a szociológia, a filozófia vagy a biztonság is olyan területek, amelyek fontosak lennének a gépi tanuló technológiák kutatásában. A helyzetet tovább bonyolítják a rendszerek betanítására használt rossz minőségű adatok, amelyek önmagukban is problémákat okoznak – éppen ezért lenne rá szükség, hogy az egészségügyi rendszerekbe küldött adatokhoz a telepítés és a gyakorlati munka szakaszában is etikus felügyeletet biztosítsanak.
Az érző robotok és ehhez hasonló felvetések kapcsán az Algorithmic Justice League képviselője világossá tette: aki ilyesmivel foglalkozik, az nem érti, hogy a valódi problémát egyelőre nem a szuperokos, hanem a buta MI-rendszerek jelentik, egyebek mellett a nem megfelelő betanítás miatt. Itt egy friss kutatás eredményét idézte, amely egy gyalogosok azonosítására felkészített computer vision modellen mutatta meg, hogy az alacsonyabb hatásfokkal ismeri fel a gyerekeket, mint a felnőtteket. Kézenfekvő következtetés, hogy ha ez a modell élesben is megjelenik egy önvezető járműben, az különös veszélyt jelentene a gyerekekre nézve.
Bár errefelé nem kézenfekvő az ilyesmi, az amerikai képviselőházi meghallgatások felvételeit a YouTube-on is rendszeresen közzéteszik. Aki kíváncsi a részletekre és van valamivel több mint két órája a videóra, az máris kattinthat:
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak