Egyre erősödnek azok a hangok, amelyek a mesterséges intelligencia használatát bizonyos esetekben nem szabályozni, hanem egyszerűen betiltani akarják, ezt pedig tovább erősíti az ENSZ emberi jogi főbiztosa, a chilei Michelle Bachelet állásfoglalása is. Az Emberi Jogi Főbiztos Hivatala a múlt héten közzétett jelentésében figyelmeztetett az MI technológiák veszélyeire, megerősítve, hogy ezek az eszközök a közjó szolgálatába állíthatók ugyan, de katasztrofális következményekkel jár, ha felelőtlenül használják fel azokat.
A riport egyebek mellett megállapítja, hogy az adatkörnyezet összetettsége, az algoritmusok és az MI rendszerek fejlesztésének és működésének alapjául szolgáló modellek, valamint a kormányzati és magánszereplők szándékos titkolózása mind olyan tényezőnek számítanak, amelyek megakadályozzák, hogy a nyilvánosság érdemi lehetőséget kapjon az ilyen rendszerek hatásainak megértésére az emberi jogokra és társadalomra gyakorolt hatásukat illetően. Ennek alapján a főbiztos az összes olyan megoldás tiltására szólított fel, amely nem egyeztethető össze a nemzetközileg elfogadott emberi jogokkal.
Mindezeket a mesterséges intelligencia a profilozáson, az automatizált döntéshozatalon és számos más képességén keresztül fenyegeti, és a jelentés felhívja rá a figyelmet, hogy a vonatkozó alkalmazások bevezetésekor sokszor marad el a kockázatok részletes elemzése. Azt pedig, hogy a dolgok milyen rosszul sülhetnek el, már a gyakorlatban is megtapasztalhattuk például az arcfelismerő rendszerek kapcsán.
Az MI-rendszerek gyakran átláthatatlan módon gyűjtik, osztják meg, egyesítik vagy elemzik az adatokat, amelyek amúgy is kompromittálódhatnak, elavulhatnak és akár részrehajlók is lehetnek. Michelle Bachelet a jelentés kapcsán kiadott közleményében túlságosan is valósnak nevezi a hátrányos megkülönböztetés kockázatát az MI által vezérelt olyan döntésekben, amelyek megváltoztathatják, meghatározhatják vagy károsíthatják az emberi életetet.
Egyelőre kormányzati feladatnak tartják
Az Emberi Jogi Főbiztos Hivatala szerint mindenképpen szükség van az ilyen rendszerek hatásainak szisztematikus értékelésére és nyomon követésére, hogy azonosítani és mérsékelni lehessen a belőlük fakadó kockázatokat. Az olyan felhasználásokat pedig, amelyek nyilvánvalóan szembe mennek az alapvető emberi jogokkal, be kell tiltani – gondolva mondjuk azokra a megoldásokra, amelyek az egyes személyeket diszkriminatív feltételrendszerek alapján szociális pontszámokkal értékelnek.
Mivel még nem igazán léteznek biztosítékok a technológia felelősségteljes használatára, az ENSZ-biztos úgy látja, hogy egyelőre mindenhol kormányzati feladat lenne az MI-bevezetések visszafogása és ellenőrzés alá vonása. Ennek hiányában az emberi jogokat potenciálisan veszélyeztető algoritmusokat továbbra is érdemi felügyelet nélkül alkalmazzák majd, ami egyre több kárt okoz a polgároknak. Bachelet szerint nem engedhetjük meg magunknak, hogy a szabályozási oldalon folyamatosan a mesterséges intelligencia fejlődése után kullogjunk, lehetővé téve annak gyengén vagy sehogy sem korlátozott felhasználását, hogy aztán szembesüljünk a majdnem elkerülhetetlen emberi jogi következményekkel.
A dokumentum egyébként külön ki is emeli, hogy az államok már rendszeresen használják felügyeleti célokra az MI alapú rendszereket, különösen az olyan biometrikus technológiákat, mint az arcfelismerés, amely lehetővé teszi az emberek valós időben, távolról végezhető azonosítását és korlátlan nyomon követését. Ezen a területen már az ENSZ szerint is moratóriumot kell bevezetni mindaddig, amíg nem igazolódik, hogy az algoritmusok az elvárt pontossággal működnek, és nem járulnak hozzá semmilyen megkülönböztetéshez.
Biztonságos M2M kommunikáció nagyvállalti környezetben a Balasystól
A megnövekedett támadások miatt az API-k biztonsága erősen szabályozott és folyamatosan auditált terület, amelynek védelme a gépi kommunikáció (M2M) biztonságossá tételén múlik.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak