Egyfajta felügyelőként működik a SaaS modellben elérhető szolgáltatás, amely feltárja a mesterséges intelligencia döntésének mozgatórugóit, és rámutat az algoritmus torzításaira.

Félelmetes a mesterséges intelligencia (MI) fejlődése? Olyannyira, hogy a fél világ évek óta pörög az MI felvetette etikai kérdéseken. Vannak a rettegők, akik szerint akár gyilkos mesterséges intelligencia is létrejöhet, és vannak a bátrak/vakok, akik nem látnak benne komolyabb kockázatokat.

Az IBM most egy nagyon fontos eszközzel állt elő: bemutatták az Bluemixből igénybe vehető AI Fairness 360 nevű felhős szolgáltatásukat, amely egyfajta felügyelője lehet az MI algoritmusoknak. Azt mutatja meg, hogy az MI mi alapján hozott meg egy-egy döntést, és a döntésben mekkora szerepe volt a gépi tanulási modellbe (nem feltétlenül szándékosan) kódolt előítéleteknek.

Kicsit lehántja a technológiáról a misztikumot

Az IBM olyan rendszert próbált létrehozni, amely már kezelőfelületével is lehántja a mesterséges intelligenciát övező misztikumot. A nyílt forráskódú eszköz lényegében egy jól áttekinthető grafikus felületen megmutatja az algoritmus döntési folyamatát, és azt, hogy milyen tényezőket hogyan vett figyelembe a végső javaslatához.

Az AI Fairness 360 számos MI-keretrendsszerrel és algoritmussal képes együttműködni: az IBM saját rendszere, a Watson mellett többek között a Tensorflow-hoz, az AWS SageMaker-hez és az AzureML-hez is használható.

A forráskódja már letölthető a GitHub-ról, de vannak oktatóanyagok is – egy hitelminősítési, egy orvosi és egy arckép-felismerési –, amely bemutatja az eszköz használatát, és az IBM kiadott egy teljes API-t is.

A hatékonyság forog kockán

Míg korábban az jósolták, hogy az MI megteremti az előítélet-mentes döntések lehetőségét, hamar kiderült, hogy ez közel sem igaz. Az algoritmus tanítása jellemzően statisztikai alapon történik, és minél több adat áll rendelkezésre a tanuláshoz, annál pontosabbak lesznek a döntések. De itt is belép az a tényező, amely a big data elemzéseknek is az egyik korlátja: sokkal nagyobb a torzítás veszélye, mint a súlyozott reprezentatív minta használatánál.

Az előítéletekről persze a legtöbbünknek olyan példák jutnak eszünkbe, mint a Palantir Technologies prediktív rendszere, amelynek előítéletes döntései alapján figyeltek meg New Orleansban embereket, így viszont az egész megfigyelés semmit sem ért. Vagy gondolhatunk a Tencent virtuális asszisztensének esetére: a chatbot rendszerellenes kijelentésekre ragadtatta magát, ami Kínában nem veszélytelen. Esetleg a Microsoft tizenéves lány viselkedését utánzó, mesterséges intelligenciával felvértezett chatbotjára, Tayre, akiből a felhasználók pillanatok alatt Hitlert éltető, rasszista, nő- és úgy általában mindent és mindenkit gyűlölő "személyiséget" faragtak. Vagy ott van a Beauty.ai ügye, amikor MI-vel akartak döntés hozni egy szépségversenyen, csak kiderült, hogy az algoritmus némileg rasszista.

Pedig nem csak erről van szó, hanem az MI általános megbízhatóságáról. Arról, hogy valamiféleképpen felügyelhetővé kell tenni az egyébként nagyon bonyolult döntési folyamatot, ami egyben tanulási folyamat is. Tehát közel sem csak etikai kérdés, hogy előítéletes-e az MI. Az IBM sem csak elfogultságot emleget közleményében, hanem torzítást is.

Régóta dolgoznak a megoldáson

A kérdéssel régóta foglalkozik a Big Blue. Ginni Rometty elnök-vezérigazgató tavaly januárban a davosi Világgazdasági Fórumon egy beszélgetésben mondta el azt a három irányelvet, amit az IBM-nél alkalmaznak az MI fejlesztésénél. Először meg kell érteni az MI célját. Másodszor átláthatóvá kell tenni a működését (pl. kik és milyen adatokkal tanították). Végül tanítani kell az embereket a a használatára.

Az AI Fairness 360-hoz hasonló eszköz készítése minden nagyobb, MI-ben érdekelt céget foglalkoztat. A Facebook például májusban jelentette be, hogy tesztel egy az IBM-éhez hasonló funkciójú Fairness Flow nevű eszközt, és a Microsoft is dolgozik hasonló megoldáson.

Cloud & big data

Szakértők figyelmeztetnek: ne küldözgessünk chatbotoknak az orvosi leleteinket

Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.