A mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek.

A mesterséges intelligencia gyors fejlődésével és egyre szélesebb körű alkalmazásával egyre többet hallhatunk az AI bias jelenségről, vagyis az MI rendszerek elfogult működésének kihívásairól. Nem meglepő, hogy az öntanuló algoritmusok gyakran jutnak gyakorlati vagy morális szempontból fals eredményekre, ami új társadalmi problémákat okozhat, vagy tovább mélyítheti a már meglévő visszásságokat. A mesterséges intelligencia gyakran képezi le vagy termeli újra az előítéleteket matematikai-statisztikai alapokon, ezt pedig még kellementlenebbé teszi, hogy az ilyen rendszerek működése nem is feltétlenül átlátható mindazok számára, akikre tényleges hatással van az alkalmazásuk.

A polgári és szabadságjogokat érintő kockázatokból mára politikai téma lett, legyen szó mondjuk az arcfelismerő technológiákról, amelyek kockzatai a nyugati felfogás szerint könnyen meghaladhatják a belőlük származó, nem is feltétlenül igazolt előnyöket, vagy például azokról at MI-algoritmusokról, amelyek egy állásinterjú vagy egy hitelbírálat során nagyon érdekes szempontok szerint képesek rangsorolni és értékelni a jelentkezőket. Bár a gépi intelligencia hatékony döntéstámogató eszköz lehet, szükségszerűen visszatükrözi készítőinek a gondolkodását, a tanulásra képes rendszerek pedig meglepően egyoldalú következtetéseket is levonhatnak a rendelkezésükre álló mintákból.

Az egyre kiterjedtebb szabályozási elképzelések a transzparencia biztosításával, rendszeres auditokkal, a részrehajló működést monitorozó eszközökkel, esetenként pedig explicit tiltásokkal tartanák kordában az MI-rendszerek torzulásait. Mindez arra a tételre épül, hogy az MI működésében nincs helye semmilyen egyoldalúságnak vagy hátrányos megkülönböztetésnek; a hibák okát pedig elsősorban a rendszerek tanítására használt adatkészletekben kell keresni, mivel az MI gyengébben teljesít az olyan helyzetek elemzésekor, amilyenekkel még nem találkozott, az algoritmusok kombinációja pedig további, előre nem látható és káros jelenségekhez vezethet.

Anélkül, hogy mindezeket a fenntartásokat cáfolni próálná, a VentureBeat mesterséges intelligenciával foglalkozó melléklete nemrég egy érdekes problémára hívta fel a figyelmet a rendszerek részrehajló működésével kapcsolatban. Ennek alapján az elfogult következtetések a gépi tanulás lényegéből fakadnak: ha matematikailag igazolható, hogy az adott modell optimálisan, vagyis a fentiek értelmében teljesen elfogulatlanul működik, az azt is jelentené, a modell hatékonysága teljesen lecsökken. Más szóval az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes.

Nem az elfogultság rossz, hanem az elfogultság következményei

Erre jó példa a biztosítási díjszabás, ahol egyszerűen ténykérdés, hogy a fiatalabb férfiak több és súlyosabb balesetet okoznak, mint az idősebb nők. Ha ez a különbség nem jelenik meg a befizetett összegekben, az sarkosan fogalmazva azt jelentené, hogy bizonyos ügyfelekkel fizettetik ki más ügyfelek ámokfutását. Másfelől azonban, mindezt elfogadva és egy MI fejével gondolkodva, az sem lenne helyes, hogy a férfiak és a nők ugyanannyi társadalombiztosítási díjat fizetnek, miközben gyereket szülni csak a nők szoktak, így értelemszerűen a költségek és a kockázatok szempontjából is rosszabb ügyfelek. Ez természetesen butaság, hiszen a gyerekszülésnél kevés közcélúbb dolgot lehet elképzelni, az MI azonban nem szükségszerűen képes különbséget tenni a két eset között.

A megoldás semmiképpen sem lehet az alanyok megkülönböztetésére szolgáló kategóriák felszámolása, hiszen a fentiek alapján ez olyasmivel járna, hogy a veszélyes sofőrök nagyobb része engedhetne meg magának kedvező biztosításokat, vagyis éppen a megkülönböztetés lehetőségének kiiktatása okozna a modellben nem kívánatos mellékhatásokat. Ugyanígy komoly torzulásokat eredményezhetnek a hiányzó vagy szándékosan mellőzött adatpontok: ahol túl sok "jó ügyfelet" elemeznek, ott hiányozni fog a képesség a "rossz ügyfelek" azonosítására, akik egy hitelintézet esetében például csak kisebb arányban igényelnek kölcsönöket, mert azt feltételezik, hogy úgyis elutasítanák őket.

Ugyanez tapasztalható az egészségtudományok területén, ahol nem sok publikáció jelenik meg azzal a tárggyal, hogy ezt és ezt próbáltuk, de egyáltalán nem működött. A kudarcokról szóló, megfelelő mennyiségű és minőségű adat pedig kifejezetten fontos lenne az olyan területeken, mint amilyenek a nagyon is aktuális kutatások a COVID-kezelések és -oltóanyagok kapcsán, ilyesmi azonban a publikációs rendszer sajátos működése miatt egyszerűen nem áll rendelkezésre.

A cikk szerint az adattudomány sokkal bonyolultabb dolog, mint hogy néhány egyszerű alapelv lefektetésével fel lehessen göngyölni az egészet, de ebből az is következik, hogy felesleges általános érvényű, minden helyzetben ugyanúgy alkalmazható megoldásokat várni tőle. Ez a mesterséges intelligencia (vagy akár azzal összefüggésban a társadalmi folyamatok) elfogultságáról szólva azt jelenti, hogy nem tiltani vagy kigyomlálni kell az előítéleteket és a megkülönböztetést, hanem sokkal jobban meg kell érteni azok működését. Ennek alapján pedig felkészült döntéseket kell hozni arról, hogy mit hagyunk meg a modellekben és mit próbálunk meg kiiktatni belőlük, figyelembe véve, hogy mindkét irányú döntésnek következményei lesznek – ezek időnként károsak, időnként azonban előnyösek, még akkor is, ha erősítik az AI bias jelenségét.

Cloud & big data

Szakértők figyelmeztetnek: ne küldözgessünk chatbotoknak az orvosi leleteinket

Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.