A mesterséges intelligencia látványos fejlődése és alkalmazásai időnként vadnyugati állapotokat mutatnak a biztonság, az átláthatóság, a vagy akár a szabályozás tekintetében is. Ahhoz azonban, hogy a dolgok valamelyest mederbe kerüljenek, a fejlesztések mellett érdemes lenne részletesen összegyűjteni és dokumentálni az MI-rendszerek fiaskóit, hogy a hibákból tanulva a jövőben megelőzhetők legyenek a hasonló esetek.
Erre vállalkozott az Artificial Intelligence Incident Database (AIID) néven futó közösségi kezdeményezés, ami saját meghatározása szerint szisztematikus gyűjteményt hoz létre az inteligens rendszerek problémáiról a biztonságot, az elfogulatlanságot vagy a való világra hatással lévő más tényezőket illetően, és ehhez könyvtárakba gyűjti a gyakorlati MI-alkalmazások torz, veszélyes vagy csak ineffektív eseteit.
Az eddigi tételek között szerepel olyasmi is, hogy az Amazon Alexa asszisztense hajlamos válaszolni a televíziós reklámokra, egészen odáig, amikor egy autógyári munkást megölt az MI-vezérelt gyártórobot. Az AIID célkitűzése szerint mindezzel nem befeketíteni akarják az egyes alkalmazásokat, hanem inspirációt nyújtanának a fejlődéshez: szerintük rengeteget lehet tanulni ezekből a incidensekből, és minél inkább elszámoltatható valaki, annál jobban ügyel majd rá, hogy másodszor ne kövesse el ugyanazt a hibát.
A Partnership on AI (PAI) felügyelete alatt működő projektet az a kezdeti felvetés hívta életre, hogy valamilyen taxonómiát próbáltak létrehozni a mesterséges intelligencia biztonságos működésével kapcsolatos malőrök értékelésére, de ehhez nem állt rendelkezésükre elég dokumentált eset. Ehhez már a gépi intelligencia területén mozgó fajsúlyosabb szereplőket is megpróbálják megnyerni, akik szerintük maguk is profitálhatnak a gyakorlati esetekből felépítet adatbázisból.
Megalapoznák a felelősségi kultúrát
A mesterséges intelligenciáról szólva mindenképpen elmondható, hogy képes ugyanasokat a problémákat újra és újra előidézni. Az AIID úgy látja, hogy a jövőben tervezett és telepített MI-rendszerek készítői az általuk biztosított adatok alapján már a legelején képesek lehetnek a dizájnok megváltoztatására, megelőzve a negítv következmények egy részét, vagy védelmet nyújtva a potenciálisan veszélyeztetett társadalmi csoportoknak.
A Vice (Motherboard) riportja alapján most olyan incidenseket listáznak, amelyek fizikai, pénzügyi vagy akár érzelmi szempontból okoztak károkat az embereknek, az állatoknak vagy általában a környezetnek. A feltöltéshez két alapvető feltételnek kell megfelelni: egyrészt a dokumentált esetben egy azonosítható MI-rendszernek kell valamilyen szerepet játszania, másrészt az ártalmak a rendszerből vagy a rendszer valamilyen lépéséből kell származniuk.
Az AIID távlati célja a kohézió és az elszámoltathatóság növelése mellett egy kollektív felelősségi kultúra megalapozása a mesterséges intelligencia területén – ez olyasmi, amiről szerintük egyelőre nem igazán lehet beszélni, miközben a rendszerek elfogult vagy eltorzult működése minimum vissztükrözi készítőik előítéleteit vagy azt a társadalmi környezetet, amelyben dolgoznak. Eközben az MI rendszerek már most is sokkal több helyen jelen vannak, mint azt a legtöbben gondolnák, így az AIID is az olyan kezdeményezések közé sorolja magát, amelyek hozzájárulnak majd, hogy az MI-fejlesztések valóban a közjót szolgálhassák.
A konkrét példák összegyűjtése és elemzése már csak azért is fontos lehet, mert a mesterséges intelligencia szabályozásában az egyoldalú vagy részrehajló működés teljes kiiktatásának ugyanolyan káros következményei lehetnek, mint a magának a renszerszintű megkülönböztetésnek. Ahogy nemrég a VentureBeat mesterséges intelligenciával foglalkozó mellékletét idéztük az AI bias jelenségről, az a gépi tanuló rendszer, amely nem képes általánosító következtetéseket levonni, tulajdonképpen tanulni sem képes, vagyis érteni és mérlegelni kell, hogy ezekben az esetekben minden döntésnek következményei vannak.
Így újult meg Magyarország leggyorsabb mobilhálózata
Közel 100 milliárd forintos beruházással, a rádiós és maghálózat teljes modernizációjával zárult le a Yettel történetének egyik legnagyobb műszaki fejlesztése.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak