A mesterséges intelligenciát, ahogy általában a gépeket is, nagyon könnyű azonosítani az elfogulatlan kalkulációkkal. Ez technikai értelemben jellemző lehet a működésükre, de a humán alanyok szempontjából az MI nem csak képes, de hajlamos is az egyoldalú és előítéletes döntésekre. Az öntanuló rendszerekről szólva éppen ezért célszerű azonosítani és figyelembe venni az ilyen faktorokat: az algoritmusok egyrészt továbbviszik a létrehozóikra jellemző logikát, másrészt fejlődésüket olyan tényezők is befolyásolják, mint mondjuk a többségi álláspont felé való elhajlások.
A legtöbbet idézett esetekben a közösségi csatornákon tanított chatbotok szerepelnek, amelyeket a felhasználók pillanatok alatt képesek voltak "ránevelni" valamilyen szélsőséges álláspontra vagy viselkedésre, hiszen ezek a rendszerek elsősorban az interakción keresztül tanulnak. Ez jól szemlélteti a rendelkezésre álló adatforrások általános kockázatait is: röviden, a fejlesztők által betáplált információ nyilvánvalóan az MI működést is meghatározza, és az adatok mennyiségének növelése önmagában még nem küszöböli ki a kimeneti oldalon tapasztalható torzulásokat.
Már látszik, hogyan csúszhatnak félre a dolgok
Könnyű belátni, hogy akár társadalmi szintű problémákat is okozhat, amikor ezek az algoritmusok nem csak leképeznek bizonyos attitüdöket és sztereotipiákat, de matematikai-statisztikai alapon újra is termelik azokat. A szakemberek szerint további komplikációt jelenthet a hasonlóság keresése és az ebből képződő információs buborék, vagy az ellentétes célok ütközése, ami ugyanennyire, ráadásul nehezen megjósolható irányba deformálja a rendszereket – különösen, hogy felépítésük sokszor átláthatatlan, és a fejlesztőkön kívül más nem is férhet hozzájuk.
Mindezek a kérdések egyre gyakrabban vetik fel az ilyen témájú kutatások és az algoritmus-auditok szükségességét. A New York-i városi tanácsban tavaly már el is fogadtak egy javaslatot egy dedikált munkacsoport felállításáról, amelynek feladata az automatizált döntéshozó rendszerek átvilágítása lesz. A közigazgatásban alkalmazott rendszerek pontos működésével, hatásaival vagy költségeivel ugyanis maga a városvezetés sincs teljesen tisztában, nem beszélve a város polgárairól, akiknek még kevesebb betekintésük van a velük kapcsolatos, algoritmizált döntések hátterébe.
Egy másik tavalyi példa az Amazon egy kevésbé jól sikerült belső projektje, amelynek célja a felvételi eljárások hatékonyságát javító megoldás kifejlesztése lett volna. A mesterséges intelligencia elkezdte hátrányosan megkülönböztetni a női jelentkezőket: mivel a fontosnak értékelt fogalmak aránylag többször szerepeltek a férfiak önéletrajzában, az öntanuló rendszer a jelentkezők neméből is elkezdett következtetni az alkalmasságukra, és a végén már azért is mínusz pontokat osztogatott, ha egy CV-ben megtalálta a "nő" vagy "női" szavakat.
Mindezt természetesen felesleges a nemi megkülönböztetésre kihegyezni, hiszen a dolog általánosságban azt hivatott szemléltetni, hogy milyen nehéz feladat egy öntanuló algoritmus korrekt üzemeltetésének a biztosítása – sőt még azt sem egyszerű megoldani, hogy a rendszerek transzparens módon végezzék a munkájukat. Talán a fenti ügy is közrejátszott abban, hogy az Amazon most együttműködésbe kezdett a National Science Foundation (NSF) nevű amerikai szövetségi szervezettel, amelyen keresztül a következő három évben 10 millió dollárral támogatja majd az MI és a gépi tanulás kutatását.
A felhasználókat is így lehet majd meggyőzni
A tudományos munka fókuszában a rendszerek minél érthetőbb felépítése, a potenciális elhajlások és káros jelenségek, illetve a hatások enyhítést célzó stratégiák állnak majd. Ugyanígy hangsúlyt helyeznek a pártatlanság validációjának kidolgozására, amitől az MI-technológiák társadalmi elfogadottságának növelését és a bennük rejlő lehetőségek hatékonyabb kiaknázását várják. A kutatások erdményét a tervek szerint nyílt forrású eszközök, adatkészletek és mindenki számára elérhető publikációk formájában teszik majd közkinccsé.
Az Amazon ezzel belépett azoknak a vállalatoknak az egyre növekvő táborába, amelyek bizonyos erőfeszítéseket tesznek az eleve elfogulatlan, transzperens és számonkérhető működésre tervezett MI-k fejlesztéséért. Az önálló piaci szereplőkön kívül iparági konzorciumok és tudoményos intézetek is alakultak már az etikus MI kutatására.
A Facebook tavaly májusban jelentette be a Fairness Flow nevű fejlesztést, amely elvileg jelezni tudja, ha egy algoritmus rassz, nem vagy életkor alapján hátrányosan kezel egy felhasználót. Az Accenture és a Microsoft is saját eszközkészlettel jött ki az MI-algoritmusok egyoldalú döntéseinek azonosítására, segítséget is nyújtva az adattudósoknak a hibák korrigálásához. A Google ősszel mutatta be a TensorFlow keretrendszer webes dashboardján a hasonló célú What-If Tool funkciót. Az IBM az AI Fairness 360 nevű, felhő alapú csomagot kínálja az MI-rendszerek döntéshozatali folyamatainak vizsgálatához.
A témának külön jelentőséget ad, hogy az emberek meglepően jól értik az MI általános koncepcióit, de arról már sokkal kevesebbet tudnak, hogy milyen konkrét esetekben kerülnek kapcsolatba MI alapú megoldásokkal. Ahogy az Edelman márciusban közzétett kutatási eredményeiből kiderült, a hétköznapi felhasználók az MI alapú innovációt kétszer annyian tartják aggasztónak, mint a szakemberek, miközben fele olyan arányban látják inspirálónak vagy érdekesnek – vagyis a rendszerek torz működésének világosan visszamérhető kiküszöbölése ebből a szempontból is a széles körű adaptáció egyik feltételének tűnik.
A NIS2-megfelelőség néhány technológiai aspektusa
A legtöbb vállalatnál a megfeleléshez fejleszteni kell a védelmi rendszerek kulcselemeit is.
CIO KUTATÁS
TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?
Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »
Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak