A washingtoni meghallgatáson sok minden kiderült a hatóságok által is alkalmazott techológiák zavarba ejtő hiányosságairól és az átláthatatlan, szabályozatlan felhasználásról.

Szerdán egy amerikai alsóházi bizottság előtt a mesterséges intelligenciát kutató szakemberek, jogászok és hatósági képviselők is az arcfelismerő MI-technológiák szabályozásának szükségességéről győzködték a képviselőket. A fotókat és videofelvételeket elemző MI szoftverek technikai kérdései vagy társdalmi hatásai ma már felkapott témának számítanak, sokszor olvasni a azokról a pontatlanságokról, amelyeket az ilyen szoftverek működése során tapasztalnak a fejlesztések során vagy akár a gyakorlati felhasználásban. Legutóbb San Franciscóban tiltották le a helyi kormányzati szervezeteket az ilyen technológiák alkalmazásáról, de a beszámolók szerint a megyei jogú nagyváros csak a legelső azoknak az amerikai településeknek a sorában, ahol hasonló intézkedésekre lehet számítani.

A javaslattal egyébként még januárban állt elő a San Franciscó-i felügyelőtanács egyik tagja, beadványában pedig azt a mindenhol ugyanilyen releváns szempontot vetette fel, hogy a polgári- és szabadságjogokat érintő kockázatok lényegesen meghaladják az arcfelismerő technológiák használatából származó, ezidáig még csak nem is igazolt előnyöket. Ahogy arról egyre többet hallhatunk, az algoritmusok gyakran jutnak fals vagy elfogult eredményekre, ami komoly társadalmi problémákat okozhat vagy mélyíthet tovább. A rossz attitüdök leképzésére és matematikai-statisztikai alapú újratermelésére jó példa a faji előítélet megjelenése, ami a szóban forgó bizottsági meghallgatáson is felmerült.

Az ülés több mint háromórás felvételét kivonatoló riportok az Algorithmic Justice League alapítóját, Joy Buolamwinit idézik, aki az arcfelsimerő technológiák előnyeit és hátrányait vizsgáló aktivista csoport nevében a piacosított technológiákról beszélt. Ennek alapján igazolható, hogy a szóban forgó modellek különösen a sötétebb bőrű nők esetében hajlamosak a tévedésre: a IBM rendszere például 34,7 százalékban produkál ilyenkor fals eredményeket, ami nyilvánvalóan messze az elfogadható szint fölött van. Buolamwini szerint a problémát legelsősorban a rendszerek tanítására használt adatkészletekben kall keresni, miután a mesterséges intelligencia értelemszerűen gyengébben teljesít az olyan felvételek elemzésekor, amilyenekkel még sohasem találkozott, így a jellemzően fehér férfiak fotóival etetett algoritmus zavarba jön, ha fekete nőket kellene azonosítania.

Az adatok begyűjtése és felhasználása is véleményes

A Georgetown University személyiségi jogi és technológiai központjának képviselőjének beszámolójából az is kiderült, bűnügyi nyilvántartásban szereplő képek esetében éppen fordítva működik a dolog, mivel ott a feketék aránya magasabb. Clare Garvie ezzel kapcsolatban kifejtette, hogy az ilyen torz adatkészlettel trenírozott MI-k ugyancsak hajlamosabbak a tévedésekre, ami aztán azt eredményezi, hogy a rendőrök rendszeresen másokat gyűjtenek be, mint akiket valójában kellett volna – ez pedig arrafelé az alkotmányos jogok sérelmének számít. Különösen, hogy az Egyesült Államokban a hatóságok legalább negyede használ már valamilyen formában arcfelismerő rendszereket.

A rendőrségi beszállítók közül az Amazon egyik alelnöke, aki ugyancsak tanúként hallgattak meg, elmondta ugyan, hogy nem igazán kapnak bejelentéseket a tévedésekről, a beszámolók azonban azt is világossá teszik, hogy a rendőrség egyáltalán nem transzparens az arcfelismerő technológiák gyakorlati felhasználásával kapcsolatban. Az FBI-jal például 18 szövetségi állam osztott meg az útlevelekben vagy a vezetői engedélyekben szereplő fotókat az érintettek bármilyen hozzájárulása nélkül, és amikor a bizottsági meghallgatáson az illetékeseket arra szólították fel, hogy pontosan határozzák meg, milyen adatokat osztanak meg egymással a kormányügynökségek, egyikük sem volt képes válaszolni.

Az American Civil Liberties Union (ACLU) nevű non-profit jogvédő már korábban is kíísérletileg igazolta, hogy az Amazon Rekognition arcfelismerő simán körözött bűnözőként azonosítja az amerikai törvényhozás bizonyos képviselőit. Ebből persze könnyű poénokat gyártani, de a szervezet most újra az arcfelismerő rendszerek használatának átmeneti felfüggesztését sürgette, a kongresszus későbbi engedélyéhez kötve, hogy mikor állíthatnak ismét alkalmazásba ilyen technológiákat. Azt feltételezve egyébként, hogy már az USA-ban is több mint 50 millió megfigyelő kamera működik, az állampolgárok nagyjából fele egész biztosan szerepel a rendszerek tanítására használt adatkészletekben, anélkül, hogy erről tudomása lenne, maga az MI alapú megfigyelés pedig a felszólalók szerint túlságosan erőteljes eszköz ahhoz, hogy ennyire szabályozatlan keretek között használják.

Végleges tiltás helyett felelős újratervezést akarnak

Bár az amerikai legfelsőbb bíróság már vizsgálja a kérdést, a szervezet még el fog piszmogni egy darabig a felmerülő problémákkal, így csak a törvényalkotók képesek gyors lépéseket tenni a valós idejű fenyegetettségekkel szemben. Bár az arcfelismerő technológiákat nem akarja mindenki en bloc tiltólistára tenni, azt még a megengedőbb álláspontot képviselő szakemberek is elismerik, hogy a felelős felhasználáshoz legelőször is gatyába kell rázni a rendszerek betanításának gyakorlatait – ez pedig a fentiek alapján olyan feladat, amit semmiképpen sem szabad teljes egészében lepasszolni a technológiát szállító vállalatoknak.

Bár az amerikai szabványügyi és technológiai intézet (NIST) jelenleg is végez benchmark teszteket a kereskedelmi forgalomba hozott arcflismerő rendszereken, a meghallgatás során felmerült, hogy már ezek a tesztek és a hozzájuk használt, elvileg zsinórmértéknek tekintett adatkészletek is jelentősen torzítanak. Így simán előfordul, hogy a kísérleti fázisban majdnem száz százalékos pontossággal működő modellek egyszerűen szétesnek, amikor az éles felhasználásban rájuk küldik mondjuk egy rendőrségi adatbázis alacsony felbontású, szemcsés és eleve másféle alanyokat ábrázoló felvételeit. Ahogy az a közelmúltban kiderült, néhol egyenesen kézzel rajzolt fantomképeket próbálnak feldolgoztatni az arcfelismerő rendszerkkel, máshol pedig színészek fotóival próbálják a kicsalni a pozitív találatokat az adott hírességekre valamelyest hasonlító gyanúsítottakra.

A jogvédők szerint azonban az arcok már tényleg a magánszféra legvégső határát jelentik, így tovább már nem halogatható az aktuális hatósági gyakorlatok megfelelő szabályozása, illetve megfelelő szabályozás hiányában az arcfelismerő rendszerek használatának azonnali felfüggesztése.

Biztonság

MI-vezérelt embermosógép készül Japánban

A pilótafülkére emlékeztető szerkezet gyors mosó-szárító programot és teljes felfrissülést ígér a felhasználóknak.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.