Az AIID adatbázisa a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit gyűjtené össze, hogy ezekből tanulva sehol se kövessék el másodszor is ugyanazokat a hibákat.

A mesterséges intelligencia látványos fejlődése és alkalmazásai időnként vadnyugati állapotokat mutatnak a biztonság, az átláthatóság, a vagy akár a szabályozás tekintetében is. Ahhoz azonban, hogy a dolgok valamelyest mederbe kerüljenek, a fejlesztések mellett érdemes lenne részletesen összegyűjteni és dokumentálni az MI-rendszerek fiaskóit, hogy a hibákból tanulva a jövőben megelőzhetők legyenek a hasonló esetek.

Erre vállalkozott az Artificial Intelligence Incident Database (AIID) néven futó közösségi kezdeményezés, ami saját meghatározása szerint szisztematikus gyűjteményt hoz létre az inteligens rendszerek problémáiról a biztonságot, az elfogulatlanságot vagy a való világra hatással lévő más tényezőket illetően, és ehhez könyvtárakba gyűjti a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit.

Az eddigi tételek között szerepel olyasmi is, hogy az Amazon Alexa asszisztense hajlamos válaszolni a televíziós reklámokra, egészen odáig, amikor egy autógyári munkást megölt az MI-vezérelt gyártórobot. Az AIID célkitűzése szerint mindezzel nem befeketíteni akarják az egyes alkalmazásokat, hanem inspirációt nyújtanának a fejlődéshez: szerintük rengeteget lehet tanulni ezekből a incidensekből, és minél inkább elszámoltatható valaki, annál jobban ügyel majd rá, hogy másodszor ne kövesse el ugyanazt a hibát.

A Partnership on AI (PAI) felügyelete alatt működő projektet az a kezdeti felvetés hívta életre, hogy valamilyen taxonómiát próbáltak létrehozni a mesterséges intelligencia biztonságos működésével kapcsolatos malőrök értékelésére, de ehhez nem állt rendelkezésükre elég dokumentált eset. Ehhez már a gépi intelligencia területén mozgó fajsúlyosabb szereplőket is megpróbálják megnyerni, akik szerintük maguk is profitálhatnak a gyakorlati esetekből felépítet adatbázisból.

Megalapoznák a felelősségi kultúrát

A mesterséges intelligenciáról szólva mindenképpen elmondható, hogy képes ugyanasokat a problémákat újra és újra előidézni. Az AIID úgy látja, hogy a jövőben tervezett és telepített MI-rendszerek készítői az általuk biztosított adatok alapján már a legelején képesek lehetnek a dizájnok megváltoztatására, megelőzve a negítv következmények egy részét, vagy védelmet nyújtva a potenciálisan veszélyeztetett társadalmi csoportoknak.

A Vice (Motherboard) riportja alapján most olyan incidenseket listáznak, amelyek fizikai, pénzügyi vagy akár érzelmi szempontból okoztak károkat az embereknek, az állatoknak vagy általában a környezetnek. A feltöltéshez két alapvető feltételnek kell megfelelni: egyrészt a dokumentált esetben egy azonosítható MI-rendszernek kell valamilyen szerepet játszania, másrészt az ártalmak a rendszerből vagy a rendszer valamilyen lépéséből kell származniuk.

Az AIID távlati célja a kohézió és az elszámoltathatóság növelése mellett egy kollektív felelősségi kultúra megalapozása a mesterséges intelligencia területén – ez olyasmi, amiről szerintük egyelőre nem igazán lehet beszélni, miközben a rendszerek elfogult vagy eltorzult működése minimum vissztükrözi készítőik előítéleteit vagy azt a társadalmi környezetet, amelyben dolgoznak. Eközben az MI rendszerek már most is sokkal több helyen jelen vannak, mint azt a legtöbben gondolnák, így az AIID is az olyan kezdeményezések közé sorolja magát, amelyek hozzájárulnak majd, hogy az MI-fejlesztések valóban a közjót szolgálhassák.

A konkrét példák összegyűjtése és elemzése már csak azért is fontos lehet, mert a mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek. Ahogy nemrég a VentureBeat mesterséges intelligenciával foglalkozó mellékletét idéztük az AI bias jelenségről, az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes, vagyis érteni és mérlegelni kell, hogy ezekben az esetekben minden döntésnek következményei vannak.

Cloud & big data

A zsarolóprogramoktól félnek a legjobban a biztonsági vezetők

A ransomware támadások mára vezető IT-biztonsági kockázattá váltak, az idén várhatóan még tovább növekszik az incidensek száma és a célpontok köre is.
 
Jó hír: ehhez rendelkezésre állnak a megfelelő eszközök. Az általánossá váló távmunka még jobban ráirányította a figyelmet, hogy az adatok biztosítása nem csak a cloud szolgáltatók, hanem legalább akkora részben a megrendelők felelőssége is.
Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2021 Bitport.hu Média Kft. Minden jog fenntartva.