Az elmúlt években az IT-val kapcsolatban is egyre több szó esik a nemek egyensúlyáról. A Deloitte év elején közzétett felmérése szerint az informatikában dolgozó nők aránya az iparilag fejlett országokban sem éri el a 25 százalékot, . Ez még akkor is igaz, ha bizonyos mutatók alapján a nők nem állnak rosszul: a statisztikák alapján a női informatikai felsővezetők például jobban keresnek, sőt a Gartner piackutató azt állítja, hogy ha valamelyik cégnél nő felel az informatikáért, akkor ott valószínűleg többet költenek IT-re, mint azokon helyeken, ahol egy férfi irányítja a területet.
A nemek egyensúlyának persze közvetett hatása is van az informatikára, ami legalább ilyen érdekes kérdéseket vet fel. Azt mindenki hajlamos elfogadni, hogy más területeken érzékelhető hatása lenne az arányok változásának: valamelyest más törvények és rendeletek születnének, ha mondjuk a kormányban vagy a törvényhozásban a mostani férfi többséggel szemben a nők kerülnének számszerű fölénybe. Az informatikában látszólag nincs szó ilyesmiről, hiszen egy kód vagy működik, vagy nem, vagy elkészül időben, vagy nem. Az olyan területeken azonban, mint a mesterséges intelligencia, könnyen visszaköszönhet az egyenlőtlenség.
Az algoritmusokban megjelenik a létrehozók gondolkodása
Ahogy a Bitport tavaszi CIO Hungary konferenciáján Ságvári Bence, a Ságvári Bence, a Magyar Tudományos Akadémia Társadalomtudományi Kutatóközpontjának osztályvezetője is kitért rá keynote előadásában, az egyes algoritmusok könnyen továbbvihetik az azokat létrehozó szervezetekre vagy társadalmakra jellemző (akár rossz) logikát. Az új algoritmusok célja természetesen a hatékonyság növelése, ám azok, akikre az algoritmusok vonatkoznak, nem szükségszerűen értik azok működését, miközben annak hatásai alól nem vonhatják ki magukat.
Minderre hétköznapi példa a Facebook, ahol a rendszer határozza meg, hogy a valóság mely részeit nem láthatjuk, mivel saját algoritmusa értékeli, hogy a valóság mely részeire nincs szükségünk. A bekódolt hibákra épülő algoritmusok ugyanígy komoly társadalmi problémákat okozhatnak, ha leképzik az uralkodó társadalmi attitüdöket és sztereotipiákat – esetünkben a férfias gondolkodást –, ezzel pedig matematikai-statisztikai alapon termelik újra az egyoldalú társadalmi attitüdöket. Ez természetesen az AI kapcsán sem azt jelenti, hogy a férfias szemlélet rossz, a nőkre jellemzőbb gondolkodás pedig jó lenne, az egyoldalúság azonban önmagában is problémás lehet.
A mesterséges intelligencia egyelőre a férfiak territóriuma
Az Egyesült Államokban nem olyan régen még 34 százalékra tették a számítástechnikai tudományokban végzettséget szerzett nők arányát, és mindenki meg volt róla győződve, hogy a rendszer idővel eléri ugyanazt az egyensúlyi állapotot, mint mondjuk a jogi vagy az orvosi képzések esetében – ehhez képest a 34 százalék mára újra 17 százalékosra olvadt. Az egyenlőtlenség az AI fejlesztések területén még szembetűnőbb: a Bloomberg beszámolójából kiderül, hogy az előző év legnagyobb, a mesterségesintelligencia-kutatással kapcsolatos konferenciáján, a Montrealban zajló Neural Information Processing Systems című rendezvényen mindössze 13,7 százalékos volt a női szakemberek aránya.
A lap Fei-Fei Li-t, a Stanford Egyetem professzorát is idézi, aki szerint nem csak az intézmény AI-kutató laborjában ő az egyetlen nő, de általánosságban is igaz, hogy a mesterséges intelligenciával foglalkozó cikkekben szinte kivétel nélkül férfi kutatók nevével találkozhatunk. Li szerint ha az AI-k működésének alapjául szolgáló adathalmazokat férfiak gondozzák, akkor szükségszerű, hogy a gépek "világlátása" is a férfi szemléletet tükrözi majd – ez ugyanúgy működik, mint a beszédfelismerő algoritmusoknál, amelyek jellemzően jól boldogulnak a hagyományos British English kiejtéssel, de sz olyan szleng vagy dialektusok már kifognak rajtuk, amelyek nem jellemzők az adatbázisukat felépítő adattudósokra.
Egyre többen hívják fel rá a figyelmet, hogy a gépi tanulás szempontjából – szemben néhány más, látványosabb de nem igazán jelentős területtel – is kifejezetten érdemes lenne erőltetni a nemek szerinti megkülönböztetést, miután a gépi intelligencia megállapításai a többségi álláspont felé hajlanak, ami esetünkben a "jómódú fehér férfiak" álláspontját jelenti. Ahogy a Mictosoft Tay nevű algoritmusából a Twitteren – viccből – rövid idő alatt rasszista Hitler-imádót faragtak, úgy a többségi álláspont más esetekben is meghatározza majd a tanulásra képes rendszereket.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak