A mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek.

A mesterséges intelligencia gyors fejlődésével és egyre szélesebb körű alkalmazásával egyre többet hallhatunk az AI bias jelenségről, vagyis az MI rendszerek elfogult működésének kihívásairól. Nem meglepő, hogy az öntanuló algoritmusok gyakran jutnak gyakorlati vagy morális szempontból fals eredményekre, ami új társadalmi problémákat okozhat, vagy tovább mélyítheti a már meglévő visszásságokat. A mesterséges intelligencia gyakran képezi le vagy termeli újra az előítéleteket matematikai-statisztikai alapokon, ezt pedig még kellementlenebbé teszi, hogy az ilyen rendszerek működése nem is feltétlenül átlátható mindazok számára, akikre tényleges hatással van az alkalmazásuk.

A polgári és szabadságjogokat érintő kockázatokból mára politikai téma lett, legyen szó mondjuk az arcfelismerő technológiákról, amelyek kockzatai a nyugati felfogás szerint könnyen meghaladhatják a belőlük származó, nem is feltétlenül igazolt előnyöket, vagy például azokról at MI-algoritmusokról, amelyek egy állásinterjú vagy egy hitelbírálat során nagyon érdekes szempontok szerint képesek rangsorolni és értékelni a jelentkezőket. Bár a gépi intelligencia hatékony döntéstámogató eszköz lehet, szükségszerűen visszatükrözi készítőinek a gondolkodását, a tanulásra képes rendszerek pedig meglepően egyoldalú következtetéseket is levonhatnak a rendelkezésükre álló mintákból.

Az egyre kiterjedtebb szabályozási elképzelések a transzparencia biztosításával, rendszeres auditokkal, a részrehajló működést monitorozó eszközökkel, esetenként pedig explicit tiltásokkal tartanák kordában az MI-rendszerek torzulásait. Mindez arra a tételre épül, hogy az MI működésében nincs helye semmilyen egyoldalúságnak vagy hátrányos megkülönböztetésnek; a hibák okát pedig elsősorban a rendszerek tanítására használt adatkészletekben kell keresni, mivel az MI gyengébben teljesít az olyan helyzetek elemzésekor, amilyenekkel még nem találkozott, az algoritmusok kombinációja pedig további, előre nem látható és káros jelenségekhez vezethet.

Anélkül, hogy mindezeket a fenntartásokat cáfolni próálná, a VentureBeat mesterséges intelligenciával foglalkozó melléklete nemrég egy érdekes problémára hívta fel a figyelmet a rendszerek részrehajló működésével kapcsolatban. Ennek alapján az elfogult következtetések a gépi tanulás lényegéből fakadnak: ha matematikailag igazolható, hogy az adott modell optimálisan, vagyis a fentiek értelmében teljesen elfogulatlanul működik, az azt is jelentené, a modell hatékonysága teljesen lecsökken. Más szóval az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes.

Nem az elfogultság rossz, hanem az elfogultság következményei

Erre jó példa a biztosítási díjszabás, ahol egyszerűen ténykérdés, hogy a fiatalabb férfiak több és súlyosabb balesetet okoznak, mint az idősebb nők. Ha ez a különbség nem jelenik meg a befizetett összegekben, az sarkosan fogalmazva azt jelentené, hogy bizonyos ügyfelekkel fizettetik ki más ügyfelek ámokfutását. Másfelől azonban, mindezt elfogadva és egy MI fejével gondolkodva, az sem lenne helyes, hogy a férfiak és a nők ugyanannyi társadalombiztosítási díjat fizetnek, miközben gyereket szülni csak a nők szoktak, így értelemszerűen a költségek és a kockázatok szempontjából is rosszabb ügyfelek. Ez természetesen butaság, hiszen a gyerekszülésnél kevés közcélúbb dolgot lehet elképzelni, az MI azonban nem szükségszerűen képes különbséget tenni a két eset között.

A megoldás semmiképpen sem lehet az alanyok megkülönböztetésére szolgáló kategóriák felszámolása, hiszen a fentiek alapján ez olyasmivel járna, hogy a veszélyes sofőrök nagyobb része engedhetne meg magának kedvező biztosításokat, vagyis éppen a megkülönböztetés lehetőségének kiiktatása okozna a modellben nem kívánatos mellékhatásokat. Ugyanígy komoly torzulásokat eredményezhetnek a hiányzó vagy szándékosan mellőzött adatpontok: ahol túl sok "jó ügyfelet" elemeznek, ott hiányozni fog a képesség a "rossz ügyfelek" azonosítására, akik egy hitelintézet esetében például csak kisebb arányban igényelnek kölcsönöket, mert azt feltételezik, hogy úgyis elutasítanák őket.

Ugyanez tapasztalható az egészségtudományok területén, ahol nem sok publikáció jelenik meg azzal a tárggyal, hogy ezt és ezt próbáltuk, de egyáltalán nem működött. A kudarcokról szóló, megfelelő mennyiségű és minőségű adat pedig kifejezetten fontos lenne az olyan területeken, mint amilyenek a nagyon is aktuális kutatások a COVID-kezelések és -oltóanyagok kapcsán, ilyesmi azonban a publikációs rendszer sajátos működése miatt egyszerűen nem áll rendelkezésre.

A cikk szerint az adattudomány sokkal bonyolultabb dolog, mint hogy néhány egyszerű alapelv lefektetésével fel lehessen göngyölni az egészet, de ebből az is következik, hogy felesleges általános érvényű, minden helyzetben ugyanúgy alkalmazható megoldásokat várni tőle. Ez a mesterséges intelligencia (vagy akár azzal összefüggésban a társadalmi folyamatok) elfogultságáról szólva azt jelenti, hogy nem tiltani vagy kigyomlálni kell az előítéleteket és a megkülönböztetést, hanem sokkal jobban meg kell érteni azok működését. Ennek alapján pedig felkészült döntéseket kell hozni arról, hogy mit hagyunk meg a modellekben és mit próbálunk meg kiiktatni belőlük, figyelembe véve, hogy mindkét irányú döntésnek következményei lesznek – ezek időnként károsak, időnként azonban előnyösek, még akkor is, ha erősítik az AI bias jelenségét.

Cloud & big data

Délkelet-Ázsiával lép digitális szövetségre az Európai Unió

A most beindított, európai támogatással létrehozott árutovábbítási rendszer mellett együttműködnének a digitális szabványok, a kiberbiztonság, az oktatás vagy a nagy teljesítményű számítástechnika fejlesztésének területén is.
 
Jó hír: ehhez rendelkezésre állnak a megfelelő eszközök. Az általánossá váló távmunka még jobban ráirányította a figyelmet, hogy az adatok biztosítása nem csak a cloud szolgáltatók, hanem legalább akkora részben a megrendelők felelőssége is.

a melléklet támogatója a Servergarden

Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2020 Bitport.hu Média Kft. Minden jog fenntartva.