Az AIID adatbázisa a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit gyűjtené össze, hogy ezekből tanulva sehol se kövessék el másodszor is ugyanazokat a hibákat.

A mesterséges intelligencia látványos fejlődése és alkalmazásai időnként vadnyugati állapotokat mutatnak a biztonság, az átláthatóság, a vagy akár a szabályozás tekintetében is. Ahhoz azonban, hogy a dolgok valamelyest mederbe kerüljenek, a fejlesztések mellett érdemes lenne részletesen összegyűjteni és dokumentálni az MI-rendszerek fiaskóit, hogy a hibákból tanulva a jövőben megelőzhetők legyenek a hasonló esetek.

Erre vállalkozott az Artificial Intelligence Incident Database (AIID) néven futó közösségi kezdeményezés, ami saját meghatározása szerint szisztematikus gyűjteményt hoz létre az inteligens rendszerek problémáiról a biztonságot, az elfogulatlanságot vagy a való világra hatással lévő más tényezőket illetően, és ehhez könyvtárakba gyűjti a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit.

Az eddigi tételek között szerepel olyasmi is, hogy az Amazon Alexa asszisztense hajlamos válaszolni a televíziós reklámokra, egészen odáig, amikor egy autógyári munkást megölt az MI-vezérelt gyártórobot. Az AIID célkitűzése szerint mindezzel nem befeketíteni akarják az egyes alkalmazásokat, hanem inspirációt nyújtanának a fejlődéshez: szerintük rengeteget lehet tanulni ezekből a incidensekből, és minél inkább elszámoltatható valaki, annál jobban ügyel majd rá, hogy másodszor ne kövesse el ugyanazt a hibát.

A Partnership on AI (PAI) felügyelete alatt működő projektet az a kezdeti felvetés hívta életre, hogy valamilyen taxonómiát próbáltak létrehozni a mesterséges intelligencia biztonságos működésével kapcsolatos malőrök értékelésére, de ehhez nem állt rendelkezésükre elég dokumentált eset. Ehhez már a gépi intelligencia területén mozgó fajsúlyosabb szereplőket is megpróbálják megnyerni, akik szerintük maguk is profitálhatnak a gyakorlati esetekből felépítet adatbázisból.

Megalapoznák a felelősségi kultúrát

A mesterséges intelligenciáról szólva mindenképpen elmondható, hogy képes ugyanasokat a problémákat újra és újra előidézni. Az AIID úgy látja, hogy a jövőben tervezett és telepített MI-rendszerek készítői az általuk biztosított adatok alapján már a legelején képesek lehetnek a dizájnok megváltoztatására, megelőzve a negítv következmények egy részét, vagy védelmet nyújtva a potenciálisan veszélyeztetett társadalmi csoportoknak.

A Vice (Motherboard) riportja alapján most olyan incidenseket listáznak, amelyek fizikai, pénzügyi vagy akár érzelmi szempontból okoztak károkat az embereknek, az állatoknak vagy általában a környezetnek. A feltöltéshez két alapvető feltételnek kell megfelelni: egyrészt a dokumentált esetben egy azonosítható MI-rendszernek kell valamilyen szerepet játszania, másrészt az ártalmak a rendszerből vagy a rendszer valamilyen lépéséből kell származniuk.

Az AIID távlati célja a kohézió és az elszámoltathatóság növelése mellett egy kollektív felelősségi kultúra megalapozása a mesterséges intelligencia területén – ez olyasmi, amiről szerintük egyelőre nem igazán lehet beszélni, miközben a rendszerek elfogult vagy eltorzult működése minimum vissztükrözi készítőik előítéleteit vagy azt a társadalmi környezetet, amelyben dolgoznak. Eközben az MI rendszerek már most is sokkal több helyen jelen vannak, mint azt a legtöbben gondolnák, így az AIID is az olyan kezdeményezések közé sorolja magát, amelyek hozzájárulnak majd, hogy az MI-fejlesztések valóban a közjót szolgálhassák.

A konkrét példák összegyűjtése és elemzése már csak azért is fontos lehet, mert a mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek. Ahogy nemrég a VentureBeat mesterséges intelligenciával foglalkozó mellékletét idéztük az AI bias jelenségről, az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes, vagyis érteni és mérlegelni kell, hogy ezekben az esetekben minden döntésnek következményei vannak.

Cloud & big data

Így erősíti az egyenlőtlenséget világszerte a mesterséges intelligencia

Ma már egyértelműen látható, hogy az egyes országok és nagyvállalatok versenyfutásával az MI még nagyobb szakadékot nyithat a különböző régiók között.
 
Hirdetés

Cyber Threat Intelligence: üzleti előny a sötét adatokból

Egyetlen kompromittált jelszó. Egy belépési pont, amit már nem használnak. Egy korábbi alkalmazott adatszivárgása. Ezek ma már nem csupán technikai hibák, hanem valós üzleti fenyegetések, amelyek a digitális alvilág piacán előbb bukkannak fel, mint ahogy a cég egyáltalán észrevenné.

A kompromittált rendszerek, a dark weben felbukkanó ügyféladatok vagy a zsarolóvírus-kampányok következményei már a vezérigazgatói és pénzügyi igazgatói irodában csapódnak le – jogi, reputációs és üzleti szinten is. Lehet és kell is védekezni ellene.

a melléklet támogatója a One Solutions

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.