A mesterséges intelligencia látványos fejlődése és alkalmazásai időnként vadnyugati állapotokat mutatnak a biztonság, az átláthatóság, a vagy akár a szabályozás tekintetében is. Ahhoz azonban, hogy a dolgok valamelyest mederbe kerüljenek, a fejlesztések mellett érdemes lenne részletesen összegyűjteni és dokumentálni az MI-rendszerek fiaskóit, hogy a hibákból tanulva a jövőben megelőzhetők legyenek a hasonló esetek.
Erre vállalkozott az Artificial Intelligence Incident Database (AIID) néven futó közösségi kezdeményezés, ami saját meghatározása szerint szisztematikus gyűjteményt hoz létre az inteligens rendszerek problémáiról a biztonságot, az elfogulatlanságot vagy a való világra hatással lévő más tényezőket illetően, és ehhez könyvtárakba gyűjti a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit.
Az eddigi tételek között szerepel olyasmi is, hogy az Amazon Alexa asszisztense hajlamos válaszolni a televíziós reklámokra, egészen odáig, amikor egy autógyári munkást megölt az MI-vezérelt gyártórobot. Az AIID célkitűzése szerint mindezzel nem befeketíteni akarják az egyes alkalmazásokat, hanem inspirációt nyújtanának a fejlődéshez: szerintük rengeteget lehet tanulni ezekből a incidensekből, és minél inkább elszámoltatható valaki, annál jobban ügyel majd rá, hogy másodszor ne kövesse el ugyanazt a hibát.
A Partnership on AI (PAI) felügyelete alatt működő projektet az a kezdeti felvetés hívta életre, hogy valamilyen taxonómiát próbáltak létrehozni a mesterséges intelligencia biztonságos működésével kapcsolatos malőrök értékelésére, de ehhez nem állt rendelkezésükre elég dokumentált eset. Ehhez már a gépi intelligencia területén mozgó fajsúlyosabb szereplőket is megpróbálják megnyerni, akik szerintük maguk is profitálhatnak a gyakorlati esetekből felépítet adatbázisból.
Megalapoznák a felelősségi kultúrát
A mesterséges intelligenciáról szólva mindenképpen elmondható, hogy képes ugyanasokat a problémákat újra és újra előidézni. Az AIID úgy látja, hogy a jövőben tervezett és telepített MI-rendszerek készítői az általuk biztosított adatok alapján már a legelején képesek lehetnek a dizájnok megváltoztatására, megelőzve a negítv következmények egy részét, vagy védelmet nyújtva a potenciálisan veszélyeztetett társadalmi csoportoknak.
A Vice (Motherboard) riportja alapján most olyan incidenseket listáznak, amelyek fizikai, pénzügyi vagy akár érzelmi szempontból okoztak károkat az embereknek, az állatoknak vagy általában a környezetnek. A feltöltéshez két alapvető feltételnek kell megfelelni: egyrészt a dokumentált esetben egy azonosítható MI-rendszernek kell valamilyen szerepet játszania, másrészt az ártalmak a rendszerből vagy a rendszer valamilyen lépéséből kell származniuk.
Az AIID távlati célja a kohézió és az elszámoltathatóság növelése mellett egy kollektív felelősségi kultúra megalapozása a mesterséges intelligencia területén – ez olyasmi, amiről szerintük egyelőre nem igazán lehet beszélni, miközben a rendszerek elfogult vagy eltorzult működése minimum vissztükrözi készítőik előítéleteit vagy azt a társadalmi környezetet, amelyben dolgoznak. Eközben az MI rendszerek már most is sokkal több helyen jelen vannak, mint azt a legtöbben gondolnák, így az AIID is az olyan kezdeményezések közé sorolja magát, amelyek hozzájárulnak majd, hogy az MI-fejlesztések valóban a közjót szolgálhassák.
A konkrét példák összegyűjtése és elemzése már csak azért is fontos lehet, mert a mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek. Ahogy nemrég a VentureBeat mesterséges intelligenciával foglalkozó mellékletét idéztük az AI bias jelenségről, az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes, vagyis érteni és mérlegelni kell, hogy ezekben az esetekben minden döntésnek következményei vannak.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak