Egyfajta felügyelőként működik a SaaS modellben elérhető szolgáltatás, amely feltárja a mesterséges intelligencia döntésének mozgatórugóit, és rámutat az algoritmus torzításaira.

Félelmetes a mesterséges intelligencia (MI) fejlődése? Olyannyira, hogy a fél világ évek óta pörög az MI felvetette etikai kérdéseken. Vannak a rettegők, akik szerint akár gyilkos mesterséges intelligencia is létrejöhet, és vannak a bátrak/vakok, akik nem látnak benne komolyabb kockázatokat.

Az IBM most egy nagyon fontos eszközzel állt elő: bemutatták az Bluemixből igénybe vehető AI Fairness 360 nevű felhős szolgáltatásukat, amely egyfajta felügyelője lehet az MI algoritmusoknak. Azt mutatja meg, hogy az MI mi alapján hozott meg egy-egy döntést, és a döntésben mekkora szerepe volt a gépi tanulási modellbe (nem feltétlenül szándékosan) kódolt előítéleteknek.

Kicsit lehántja a technológiáról a misztikumot

Az IBM olyan rendszert próbált létrehozni, amely már kezelőfelületével is lehántja a mesterséges intelligenciát övező misztikumot. A nyílt forráskódú eszköz lényegében egy jól áttekinthető grafikus felületen megmutatja az algoritmus döntési folyamatát, és azt, hogy milyen tényezőket hogyan vett figyelembe a végső javaslatához.

Az AI Fairness 360 számos MI-keretrendsszerrel és algoritmussal képes együttműködni: az IBM saját rendszere, a Watson mellett többek között a Tensorflow-hoz, az AWS SageMaker-hez és az AzureML-hez is használható.

A forráskódja már letölthető a GitHub-ról, de vannak oktatóanyagok is – egy hitelminősítési, egy orvosi és egy arckép-felismerési –, amely bemutatja az eszköz használatát, és az IBM kiadott egy teljes API-t is.

A hatékonyság forog kockán

Míg korábban az jósolták, hogy az MI megteremti az előítélet-mentes döntések lehetőségét, hamar kiderült, hogy ez közel sem igaz. Az algoritmus tanítása jellemzően statisztikai alapon történik, és minél több adat áll rendelkezésre a tanuláshoz, annál pontosabbak lesznek a döntések. De itt is belép az a tényező, amely a big data elemzéseknek is az egyik korlátja: sokkal nagyobb a torzítás veszélye, mint a súlyozott reprezentatív minta használatánál.

Az előítéletekről persze a legtöbbünknek olyan példák jutnak eszünkbe, mint a Palantir Technologies prediktív rendszere, amelynek előítéletes döntései alapján figyeltek meg New Orleansban embereket, így viszont az egész megfigyelés semmit sem ért. Vagy gondolhatunk a Tencent virtuális asszisztensének esetére: a chatbot rendszerellenes kijelentésekre ragadtatta magát, ami Kínában nem veszélytelen. Esetleg a Microsoft tizenéves lány viselkedését utánzó, mesterséges intelligenciával felvértezett chatbotjára, Tayre, akiből a felhasználók pillanatok alatt Hitlert éltető, rasszista, nő- és úgy általában mindent és mindenkit gyűlölő "személyiséget" faragtak. Vagy ott van a Beauty.ai ügye, amikor MI-vel akartak döntés hozni egy szépségversenyen, csak kiderült, hogy az algoritmus némileg rasszista.

Pedig nem csak erről van szó, hanem az MI általános megbízhatóságáról. Arról, hogy valamiféleképpen felügyelhetővé kell tenni az egyébként nagyon bonyolult döntési folyamatot, ami egyben tanulási folyamat is. Tehát közel sem csak etikai kérdés, hogy előítéletes-e az MI. Az IBM sem csak elfogultságot emleget közleményében, hanem torzítást is.

Régóta dolgoznak a megoldáson

A kérdéssel régóta foglalkozik a Big Blue. Ginni Rometty elnök-vezérigazgató tavaly januárban a davosi Világgazdasági Fórumon egy beszélgetésben mondta el azt a három irányelvet, amit az IBM-nél alkalmaznak az MI fejlesztésénél. Először meg kell érteni az MI célját. Másodszor átláthatóvá kell tenni a működését (pl. kik és milyen adatokkal tanították). Végül tanítani kell az embereket a a használatára.

Az AI Fairness 360-hoz hasonló eszköz készítése minden nagyobb, MI-ben érdekelt céget foglalkoztat. A Facebook például májusban jelentette be, hogy tesztel egy az IBM-éhez hasonló funkciójú Fairness Flow nevű eszközt, és a Microsoft is dolgozik hasonló megoldáson.

Cloud & big data

Bekeményítenek az internetes óriások az új hongkongi törvény miatt

A különleges státuszt élvező kínai régióban múlt héten lépett életbe az új törvény, amely komoly büntetéssel fenyegeti az "államellenes terroristákat" és a kormányzati adatkéréseket megtagadó internetes cégeket.
 
Már Budapesten is van olyan előadás, amit wifihálózat és mobiltelefon segítségével tettek interaktívvá.

a melléklet támogatója a TP-Link Magyarország

Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2020 Bitport.hu Média Kft. Minden jog fenntartva.