A gépi tanulás nem feltétlenül eredményez befolyásolhatatlan, pártatlan döntéseket hozó rendszereket – éppen ellenkezőleg, a gép könnyen továbbviheti az uralkodó előítéleteket.

Általában a gépeket, különösen pedig a mesterséges intelligenciát a legtöbbször a hideg, elfogulatlan kalkulációval azonosítjuk, azonban éppen az AI-k kapcsán merül fel egyre többször, hogy a rendszerek számos okból működhetnek elfogultan vagy egyoldalúan, ezeket a faktorokat pedig mindenképpen érdemes azonosítani és figyelembe venni. Az algoritmusok ugyanis szükségszerűen továbbviszik a létrehozóikra jellemző logikát, nem beszélve a gépi tanulást befolyásoló tényezőkről, ahol már nem csak az a kérdés, hogy az adott kód működik vagy nem – mondjuk azért, mert a gépi intelligencia megállapításai a többségi álláspont felé hajlanak.

A gép bármit megtanulhat tőlünk

Korábban mi is foglalkoztunk azzal a jelenséggel, hogy a gépi intelligencia alanyai nem feltétlenül értik azokat az algoritmusokat, amelyek hatásai alól viszont nem vonhatják ki magukat. A bekódolt hibákra épülő rendszerek esetenként akár komoly társadalmi problémákat okozhatnak az uralkodó társadalmi attitüdök és sztereotípiák leképzésével, matematikai-statisztikai alapon újratermelve azokat. Ilyen torzuláshoz vezethet például az a helyzet, hogy az AI-kutatásokban sokkal kevesebb nő vesz részt, így az is esélyes, hogy az eredmények is határozottan férfias szemléletet tükröznek majd.

A TechCrunch egyik vendég szerzője, a Northwestern University számítástudományi professzora nemrég pontokba gyűjtötte, hogy a gépi tanulási folyamatokban felhasznált adattömeg, a "szabadon engedett" AI-val folytatott emberi interakció és egyéb hatások milyen módon befolyásolhatják a mesterséges intelligencia működését. Ezek a hatások egyelőre nem feltétlenül nyilvánvalóak, azonban a szakembereknek tisztában kell lenniük velük, hogy ezekre tekintettel tervezzék a rendszereket, elkerülve a később jelentkező problémákat.

Ezekbe nem kellene túl sokszor belefutni

Kristian Hammond szerint az első és leginkább nyilvánvaló szempont az adatforrások kérdése, mivel az (ön)tanuló rendszerek esetében a végeredmény nagyban függ attól, hogy a fejlesztők milyen adatokat táplálnak beléjük. Ez nem új felismerés, azonban Hammond úgy látja, hogy mostanában sokszor figyelmen kívül hagyják, mivel az adattömeg sosem látott méretétől mindenki azt reméli, hogy már csak a nagyságrend miatt is kiküszöböli az emberi elfogultságot. Márpedig ez nincs így, amire kézenfekvő példa az arcfelismerő rendszerek gyakori fiaskója, ha a rendszer nem a készítőire jellemző rasszal találkozik, vagy az algoritmus alapú Beauty.ai szépségverseny, ahol az AI-nak sokkal jobban bejöttek a fehér bőrű résztvevők.

A rendszerek persze nem csak a beléjük lapátolt adatokon, hanem az interakción keresztül is tanulnak, ami újabb kérdéseket vet fel. Mindenki hallott a Microsoft Tay chatbotjáról, amelyből a tréfás kedvű felhasználók órák alatt rasszista Hitler-imádót faragtak, és a leállítás-javítás-újraindítás manővert követően sem kellett sok, hogy Tay azzal dicsekedjen: éppen marihuánát szív a rendőrség orra előtt. Ez természetesen csak egy ártalmatlan kísérlet volt a szoftvercég részéről, de nem nehéz elképzelni olyan helyzeteket, amelyekben egy tanuló algoritmus valós problémákat okozhat. Így vagy úgy, de a rendszerek visszatükrözik mindazokat a véleményeket, amelyekkel fejlődésük során kapcsolatba kerülnek.

A szerző elfogultság-buboréknak nevezi azt a virtuális környezetet, amelyet a személyre szabhatóság jegyében algoritmusok tartanak tisztán, megszűrve a felhasználónak – szerintük – irreleváns vagy zavaró információt. Ezt figyelhetjük meg a Facebookon is, ahol a rendszer a viselkedésünk (kattintások, kedvelések, megosztások) alapján dönti el, hogy mi érdekelhet minket. Az amerikai elnökválasztás kapcsán már mindenkinek leesett, hogy ez a látszólag kényelmes és biztonságos megoldás alapjaiban lehetetleníti el a hírek áramlását, és elsősorban nem a haszontalan információt gyomlálja ki a hírfolyamunkból, hanem önkényesen befolyásolja a gondolkodásunkat. A modell természetesen a vállalati döntéshozatalban részt vevő algoritmusok tekintetében is problémás: nehéz lehet úgy végezni bármilyen szellemi munkát, ha csak a sajátunkkal megegyező véleményekből és a velünk szimpatizáló kapcsolatokból tájékozódunk, tudomást sem véve az esetleges alternatíváról.

Ehhez kapcsolódik, hogy a szándékolt hasonlóság önmagában is torzíthatja az egyes rendszerek kimeneti eredményeit, méghozzá úgy, hogy a rendszer máskülönben hibátlanul működik, mert pontosan azt a feladatot végzi, amire tervezték. Ha megnézzük a Google News hírszolgáltatását, az egymásra utaló és egymáshoz kapcsolódó anyagok hasonló információs buborékot hoznak létre, mint amit a Facebook kapcsán is említettünk. Az adattömeg kezelésében a hasonlóság igen fontos, de közel sem az egyetlen lényeges metrika, és sokszor a különböző álláspontok összevetése az, ami hatékonyabbá teszi a döntéshozatalt. Nem nehéz belátni, hogy a keresések vagy dokumentumok minél pontosabb megfeleltetésére épülő információs rendszerek hogyan akadályozhatják az innovációt és a kreativitást, akár a vállalati felhasználásban is.

Végül érdemes figyelembe venni, hogy az ellentétes célok ütközése gyakran úgy torzítja az algoritmusok működését, hogy azt a kezdetekkor még nagyon nehéz előrelátni. Amikor például egy állásajánlatokat listázó oldal azon igyekszik, hogy minél több kattintást préseljen ki egy adott felhasználóból, a kattintások száma és a munkalehetőségek tényleges relevanciája nem feltétlenül függ össze egymással. Ha az algoritmus a nőknek a sztereotípiák szerint nőiesebb állásajánlatokat listáz az első helyeken, akkor az oldal a gépi tanulással összefüggő komponense a kattintások arányából jó eséllyel von le olyan következtetéseket, amelyek csak a prekoncepciók erősítését eredményezik, szemben az eredeti céllal, az állásajánlatok minél jobb pozicionálásával.

Ahogy Kristian Hammond megállapítja, valószínűleg sosem leszünk képesek teljesen objektív és elfogulatlan algoritmusokat létrehozni – arra azonban törekedhetünk, hogy az algoritmusok kevésébé legyenek elfogultak, mint az emberek. Ha a rendszereket minél inkább a fenti szempontok figyelembe vételével tervezik, akkor előrelátó módon kiszűrhetjük az olyan tényezőket, amelyek érdemben befolyásolják egy választás végeredményét, amelyek egy valuta árfolyamának összeomlásához vezetnek, vagy amelyek megakadályozzák, hogy felvegyük a kapcsolatot és érdemi párbeszédet folytassunk a saját kis információs buborékunkon kívüli emberekkel.

Cloud & big data

Szakértők figyelmeztetnek: ne küldözgessünk chatbotoknak az orvosi leleteinket

Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.