Az Európai Unió Alapjogi Ügynöksége (FRA) decemberben tette közzé a mesterséges intelligencia jövőjével kapcsolatos jelentését, ami nem meglepő módon azokat az etikai megfontolásokat tárgyalja, amelyeket az ilyen technológiák alkalmazása során felmerülhetnek. A riportban rögtön megállapítják, hogy az MI kifogyhatatlan lehetőségeket tartogat az uniós polgárok életének jobbá tételére, legyen szó bűrmiről a rákdiagnosztikától kezdve a betörések valószínűségének előrejelzéséig, de ehhez mindenképpen szükség van a felhasználások során az alapvető jogok biztosítására.
Az FRA több száz köztisztviselő, céges alkalmazott és különféle területeken dolgozó szakember véleményét gyűjtötte össze arról, hogy mire van szükség a mesterséges intelligencia teljes potenciáljának kiaknázásához a társadalom egészének az érdekében. Ennek során különösen az olyan alkalmazásokról volt szó, mint mondjuk az etnikai profilozás automatizálása, amelyek kitettsége már most is igazolt az előre kódolt vagy a tanulással kialakított elfogultság szempontjából.
A tanulmányban az FRA vezetője is kifejti, hogy az MI semmi esetre sem tévedhetetlen, elsősorban azért, mert emberek hozzák létre. Mivel ezek a technológiák valamilyen formában már szinte minden iparágban megjelentek, az embereknek érdemes lenne tisztába kerülniük azzal, hogy pontosan mikor használják azokat, hogyan működnek és hogyan lehet fellépni az automatizált döntésekkel szemben. Az Európai Uniónak éppen ezért világossá kell tennie, hogy a már meglévő szabályok hogyan érvényesíthetők az MI-re, mint ahogy az egyes szervezeteknek is meg kell vizsgálniuk, hogy a technológiák fejlesztése és felhasználása mennyiben ütközik az uniós polgároknak biztosított jogokkal.
Nem maradhatunk védtelenek az MI-vel szemben
Az MI torz működése nyilvánvalóan nagyobb veszélyt hordoz bizonyos területeken, így a rendfenntartás vagy a pénzügyi szolgáltatások témakörében. A megfelelő transzparencia nélkül pedig az emberek úgy válnak az elfogult döntések alanyaivá, hogy nincsenek tisztában a döntések mögött húzódó megfontolásokkal. Az FRA éppen ezért több pontban javaslatokat fogalmaztt meg az Európai Unió felé, többek között egy hatékony ellenőrző rendszer felállítására, az MI-rendszerek diszkriminatív működését feltáró kutatások finanszírozására, az adatvédelmi szabályok végrehajtását segítő iránymutatások megalkotására vagy az olyan lehetőségek formalizálására, amelyek révén az emberek kifogásolhatják a mesterséges intelligenciára épülő döntéseket.
A híradások mindennek kapcsán felidézik azt az általunk is rendszeresen feldolgozott trendet, hogy az elmúlt időszakban az Európai Unió egyre részletesebben vizsgálja a big tech vállalatok invazív személyisági jogi gyakorlatait és erőfölényükkel való visszaéléseit. Ebben pedig nemsokára az MI rendszerek fejlesztésének és működésének szabályozása lehet az egyik legfontosabb ütközési pont.
Nagyjából az FRA jelentésének közzétételével egy időben távozott például a Google MI-etikával foglalkozó csapatának egyik vezető kutatója, aki a BBC-nek adott interjúban intézményesített rasszizmussal vádolta korábbi munkaadóját, az elbocsátásához vezető szakmai konfliktusra válaszul pedig egy olyan tiltakozó levél is megszületett, amit azóta különböző iparági, oktatási és civil szereplők mellett a Google 2700 saját munkatársa is aláírt, és amelyre a cég vezérigazgatója is kénytelen volt személyesen reagálni.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak