Az AIID adatbázisa a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit gyűjtené össze, hogy ezekből tanulva sehol se kövessék el másodszor is ugyanazokat a hibákat.

A mesterséges intelligencia látványos fejlődése és alkalmazásai időnként vadnyugati állapotokat mutatnak a biztonság, az átláthatóság, a vagy akár a szabályozás tekintetében is. Ahhoz azonban, hogy a dolgok valamelyest mederbe kerüljenek, a fejlesztések mellett érdemes lenne részletesen összegyűjteni és dokumentálni az MI-rendszerek fiaskóit, hogy a hibákból tanulva a jövőben megelőzhetők legyenek a hasonló esetek.

Erre vállalkozott az Artificial Intelligence Incident Database (AIID) néven futó közösségi kezdeményezés, ami saját meghatározása szerint szisztematikus gyűjteményt hoz létre az inteligens rendszerek problémáiról a biztonságot, az elfogulatlanságot vagy a való világra hatással lévő más tényezőket illetően, és ehhez könyvtárakba gyűjti a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit.

Az eddigi tételek között szerepel olyasmi is, hogy az Amazon Alexa asszisztense hajlamos válaszolni a televíziós reklámokra, egészen odáig, amikor egy autógyári munkást megölt az MI-vezérelt gyártórobot. Az AIID célkitűzése szerint mindezzel nem befeketíteni akarják az egyes alkalmazásokat, hanem inspirációt nyújtanának a fejlődéshez: szerintük rengeteget lehet tanulni ezekből a incidensekből, és minél inkább elszámoltatható valaki, annál jobban ügyel majd rá, hogy másodszor ne kövesse el ugyanazt a hibát.

A Partnership on AI (PAI) felügyelete alatt működő projektet az a kezdeti felvetés hívta életre, hogy valamilyen taxonómiát próbáltak létrehozni a mesterséges intelligencia biztonságos működésével kapcsolatos malőrök értékelésére, de ehhez nem állt rendelkezésükre elég dokumentált eset. Ehhez már a gépi intelligencia területén mozgó fajsúlyosabb szereplőket is megpróbálják megnyerni, akik szerintük maguk is profitálhatnak a gyakorlati esetekből felépítet adatbázisból.

Megalapoznák a felelősségi kultúrát

A mesterséges intelligenciáról szólva mindenképpen elmondható, hogy képes ugyanasokat a problémákat újra és újra előidézni. Az AIID úgy látja, hogy a jövőben tervezett és telepített MI-rendszerek készítői az általuk biztosított adatok alapján már a legelején képesek lehetnek a dizájnok megváltoztatására, megelőzve a negítv következmények egy részét, vagy védelmet nyújtva a potenciálisan veszélyeztetett társadalmi csoportoknak.

A Vice (Motherboard) riportja alapján most olyan incidenseket listáznak, amelyek fizikai, pénzügyi vagy akár érzelmi szempontból okoztak károkat az embereknek, az állatoknak vagy általában a környezetnek. A feltöltéshez két alapvető feltételnek kell megfelelni: egyrészt a dokumentált esetben egy azonosítható MI-rendszernek kell valamilyen szerepet játszania, másrészt az ártalmak a rendszerből vagy a rendszer valamilyen lépéséből kell származniuk.

Az AIID távlati célja a kohézió és az elszámoltathatóság növelése mellett egy kollektív felelősségi kultúra megalapozása a mesterséges intelligencia területén – ez olyasmi, amiről szerintük egyelőre nem igazán lehet beszélni, miközben a rendszerek elfogult vagy eltorzult működése minimum vissztükrözi készítőik előítéleteit vagy azt a társadalmi környezetet, amelyben dolgoznak. Eközben az MI rendszerek már most is sokkal több helyen jelen vannak, mint azt a legtöbben gondolnák, így az AIID is az olyan kezdeményezések közé sorolja magát, amelyek hozzájárulnak majd, hogy az MI-fejlesztések valóban a közjót szolgálhassák.

A konkrét példák összegyűjtése és elemzése már csak azért is fontos lehet, mert a mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek. Ahogy nemrég a VentureBeat mesterséges intelligenciával foglalkozó mellékletét idéztük az AI bias jelenségről, az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes, vagyis érteni és mérlegelni kell, hogy ezekben az esetekben minden döntésnek következményei vannak.

Cloud & big data

Van az a pénz... Kivették a kínai App Store-ból a WhatsAppot és Threadset

Peking szerint a Meta két mobil appja nemzetbiztonsági aggályokat vet fel.
 
Hirdetés

Adathelyreállítás pillanatok alatt

A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.

Hol, milyen adatokat és hányszorosan tároljunk ahhoz, hogy biztonságban tudhassuk szervezetünk működését egy nem várt adatvesztési incidens esetén is?

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.