Amíg az önvezető járművek rendszerei kisebb eséllyel azonosítják a gyerekeket a gyalogosok között, addig nem érdemes tudományos-fantasztikus disztópiákon rágódni.

Május végén a mesterséges intelligenciát kutató szakembereket, jogászokat és hatósági képviselőket hallgatott meg egy amerikai alsóházi bizottság, ahol a mesterséges intelligencia, ezen belül is az arcfelismerő MI-technológiák szabályozásának szükségességét a próbálták felmérni a képviselők. Azokról a pontatlanságok ugyanis, amelyeket az ilyen szoftverek fejlesztése vagy gyakorlati felhasználásai során tapasztalnak, a technikai kérdéseken túl komoly társdalmi hatásokat is előrevetítenek – nem sokkal korábban San Franciscóban a helyi kormányzat fel is függesztette az ilyen technológiák alkalmazását, és a hírek szerint más amerikai nagyvárosok is hasonló intézkedésekre készülnek.

A több mint háromórás ülésen megszólalt az Algorithmic Justice League alapítója, Joy Buolamwini, aki a már piacosított technológiákról beszélt az arcfelsimerő technológiákkal foglalkozó aktivista csoport nevében. Felmerült mások mellett a rendszerek tanítására használt adatkészletek problémája, miután az MI gyengébben teljesít az olyan típusú felvételek elemzésében, amilyenekkel még nem találkozott, így a jellemzően fehér férfiak fotóin tanított algoritmus zavarba jön például, ha fekete nőket kellene azonosítania. Ez esetenként több mint egyharmad arányban jelent fals eredményeket, ami nyilvánvalóan messze fölötte van az elfogadható szintnek.

A meghallgatások második körére szerdán került sor a tudományos, űrkutatási és technológiai területekért felelős bizottság előtt. Az ülésen egy újabb fontos probléma került terítékre, mégpedig az, hogy a gépi tanulásban elért áttöréseknek köszönhetően az ilyen megoldások egyre több és több állampolgár életére vannak hatással, ugyanakkor az emberek – köztük a törvényhozók is – nagyon különböző szinten állnak az ilyen technológiák működésének ismeretét illetően. Bár a felvetések egy része most is olyan kérdésekre vonatkozott, mint mondjuk a fogyasztók irányítószám alapján történő diszkriminációja, mások bizarr módon az érző robotok témáját kezdték boncolgatni.

Rossz minőségű adatok, ellenőrzés nélküli betanítás

A mostani meghallgatáson is résztvevő Buolamwini "privilegizált tudatlanságnak" nevezte azt a jelenséget, hogy bizonyos csoportoknak sohasem kell szembesülniük az MI-rendszerek eltorzult működésével. Ilyenek legelsősorban a mesterséges intelligenciával foglalkozó tudósok, akik jellemzően fehér férfiak, és akiknek nem feltétlenül jut eszébe, hogy a rendszerek tanítására használt adatkészletek olyan modelleket eredményezhetnek, amelyek nem jól működnek a társadalom rajtuk kívül eső részében. Márpedig a technológiai óriáscégek és a legfontosabb kutatóközpontok közösségeire egyáltalán nem jellemző a sokszínűség a nemek, a bőrszín vagy a marginalizált társadalmi csoportok képviseletét illetően.

A "diverzitásválságnak" nevezett jelenség ráadásul szakmailag is megjelenik a mindenki életére hatással lévő rendszerek fejlesztésekor. Ahogy egy megszólaló fogalmazott, nem egészséges, ha ezek a csapatok a húsz számítástechnikusból és egy darab jogászból állnak, miközben a szociológia, a filozófia vagy a biztonság is olyan területek, amelyek fontosak lennének a gépi tanuló technológiák kutatásában. A helyzetet tovább bonyolítják a rendszerek betanítására használt rossz minőségű adatok, amelyek önmagukban is problémákat okoznak – éppen ezért lenne rá szükség, hogy az egészségügyi rendszerekbe küldött adatokhoz a telepítés és a gyakorlati munka szakaszában is etikus felügyeletet biztosítsanak.

Az érző robotok és ehhez hasonló felvetések kapcsán az Algorithmic Justice League képviselője világossá tette: aki ilyesmivel foglalkozik, az nem érti, hogy a valódi problémát egyelőre nem a szuperokos, hanem a buta MI-rendszerek jelentik, egyebek mellett a nem megfelelő betanítás miatt.  Itt egy friss kutatás eredményét idézte, amely egy gyalogosok azonosítására felkészített computer vision modellen mutatta meg, hogy az alacsonyabb hatásfokkal ismeri fel a gyerekeket, mint a felnőtteket. Kézenfekvő következtetés, hogy ha ez a modell élesben is megjelenik egy önvezető járműben, az különös veszélyt jelentene a gyerekekre nézve.

Bár errefelé nem kézenfekvő az ilyesmi, az amerikai képviselőházi meghallgatások felvételeit a YouTube-on is rendszeresen közzéteszik. Aki kíváncsi a részletekre és van valamivel több mint két órája a videóra, az máris kattinthat:
 

 

 

A Tesla bármelyik másik márkánál több halálos balesetben érintett

Az elmúlt években gyártott járműveket vizsgálva kiderült, hogy az amerikai utakon a Teslák az átlagosnál kétszer gyakrabban szerepelnek végzetes ütközésekben a megtett mérföldek arányában.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.