Félelmetes a mesterséges intelligencia (MI) fejlődése? Olyannyira, hogy a fél világ évek óta pörög az MI felvetette etikai kérdéseken. Vannak a rettegők, akik szerint akár gyilkos mesterséges intelligencia is létrejöhet, és vannak a bátrak/vakok, akik nem látnak benne komolyabb kockázatokat.
Az IBM most egy nagyon fontos eszközzel állt elő: bemutatták az Bluemixből igénybe vehető AI Fairness 360 nevű felhős szolgáltatásukat, amely egyfajta felügyelője lehet az MI algoritmusoknak. Azt mutatja meg, hogy az MI mi alapján hozott meg egy-egy döntést, és a döntésben mekkora szerepe volt a gépi tanulási modellbe (nem feltétlenül szándékosan) kódolt előítéleteknek.
Kicsit lehántja a technológiáról a misztikumot
Az IBM olyan rendszert próbált létrehozni, amely már kezelőfelületével is lehántja a mesterséges intelligenciát övező misztikumot. A nyílt forráskódú eszköz lényegében egy jól áttekinthető grafikus felületen megmutatja az algoritmus döntési folyamatát, és azt, hogy milyen tényezőket hogyan vett figyelembe a végső javaslatához.
Az AI Fairness 360 számos MI-keretrendsszerrel és algoritmussal képes együttműködni: az IBM saját rendszere, a Watson mellett többek között a Tensorflow-hoz, az AWS SageMaker-hez és az AzureML-hez is használható.
A forráskódja már letölthető a GitHub-ról, de vannak oktatóanyagok is – egy hitelminősítési, egy orvosi és egy arckép-felismerési –, amely bemutatja az eszköz használatát, és az IBM kiadott egy teljes API-t is.
A hatékonyság forog kockán
Míg korábban az jósolták, hogy az MI megteremti az előítélet-mentes döntések lehetőségét, hamar kiderült, hogy ez közel sem igaz. Az algoritmus tanítása jellemzően statisztikai alapon történik, és minél több adat áll rendelkezésre a tanuláshoz, annál pontosabbak lesznek a döntések. De itt is belép az a tényező, amely a big data elemzéseknek is az egyik korlátja: sokkal nagyobb a torzítás veszélye, mint a súlyozott reprezentatív minta használatánál.
Az előítéletekről persze a legtöbbünknek olyan példák jutnak eszünkbe, mint a Palantir Technologies prediktív rendszere, amelynek előítéletes döntései alapján figyeltek meg New Orleansban embereket, így viszont az egész megfigyelés semmit sem ért. Vagy gondolhatunk a Tencent virtuális asszisztensének esetére: a chatbot rendszerellenes kijelentésekre ragadtatta magát, ami Kínában nem veszélytelen. Esetleg a Microsoft tizenéves lány viselkedését utánzó, mesterséges intelligenciával felvértezett chatbotjára, Tayre, akiből a felhasználók pillanatok alatt Hitlert éltető, rasszista, nő- és úgy általában mindent és mindenkit gyűlölő "személyiséget" faragtak. Vagy ott van a Beauty.ai ügye, amikor MI-vel akartak döntés hozni egy szépségversenyen, csak kiderült, hogy az algoritmus némileg rasszista.
Pedig nem csak erről van szó, hanem az MI általános megbízhatóságáról. Arról, hogy valamiféleképpen felügyelhetővé kell tenni az egyébként nagyon bonyolult döntési folyamatot, ami egyben tanulási folyamat is. Tehát közel sem csak etikai kérdés, hogy előítéletes-e az MI. Az IBM sem csak elfogultságot emleget közleményében, hanem torzítást is.
Régóta dolgoznak a megoldáson
A kérdéssel régóta foglalkozik a Big Blue. Ginni Rometty elnök-vezérigazgató tavaly januárban a davosi Világgazdasági Fórumon egy beszélgetésben mondta el azt a három irányelvet, amit az IBM-nél alkalmaznak az MI fejlesztésénél. Először meg kell érteni az MI célját. Másodszor átláthatóvá kell tenni a működését (pl. kik és milyen adatokkal tanították). Végül tanítani kell az embereket a a használatára.
Az AI Fairness 360-hoz hasonló eszköz készítése minden nagyobb, MI-ben érdekelt céget foglalkoztat. A Facebook például májusban jelentette be, hogy tesztel egy az IBM-éhez hasonló funkciójú Fairness Flow nevű eszközt, és a Microsoft is dolgozik hasonló megoldáson.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak