Az MI-technológiák gyors fejlődése jogi és morális megfontolásokból is megkövetelné az etikai normák betartását, nem teljesen függetlenül az üzleti megfontolásoktól sem.

A héten rendezett AI & Big Data Expo Europe egyik panelbeszélgetésén a terület szakértői igyekeztek összeszedni, hogy a jelenlegi és küszöbön álló új szabályozások értelmében mire számíthatnak a mesterséges intelligencia alkalmazására készülő európai vállalkozások. Ennek kapcsán kiemelték azt az Európai Unióban elfogadásra váró törvényt, amelyik a hasonló jogszabályok, például a GDPR alapjaira épít, de kiterjeszti azt a mesterséges intelligenciára is. Az AI News beszámolója szerint ebben kézenfekvő módon a legnagyobb kockázatú rendszerekre koncentrálnak, a szakemberek szerint azonban az előzetes aggályokat itt sem sikerült eloszlatniuk.

Ilyen aggály lenne már a törvény értelmezése is, amely sokféle kötelezettséget ró a terület különféle résztvevőire: a szolgáltatóknak, alkamazóknak vagy importőröknek is megvan a maga felelőssége, amelyeket a jogászoknak kell majd szétszálazniuk. Az sem világos, hogy mindez mennyire lesz költséges lesz a vállalkozások, különösen a kkv-k és startupok számára. A kritikusok itt azzal érvelnek, hogy a túlszabályozás és a bürokrácia kiszorítja az innovációt, a befektetéseket és a munkahelyeket az eurózónából, ami hátrányosan érinti az európai cégeket az amerikai és kínai riválisokkal, illetve a bejáratott iparági óriásokkal folytatott versenyben is.

Ugyancsak kérdéseket vet majd fel a jogérvényesítés, miután az uniós MI-törvény még messzebbre megy a GDPR amúgy is szigorú szankcióinál. Bár lényegében lemásolja a GDPR végrehajtását, de az abban foglaltaknál magasabb, akár 30 millió eurós vagy az éves forgalom 6 százalékának megfelelő bírságokat tesz lehetővé. A világszerte folyamatosan változó szabályok betartása különösen nehéz feladatnak tűnik, a mukasztások pedig súlyos szankciókat vonhatnak maguk után. Eközben az EU megköveteli a magas kockázatú MI-rendszerek auditálását, de a külső auditoknál problémás a belső adatok, döntések vagy bizalmas információk megosztani külső felekkel.

Ugyanannyit segíthet is, mint amennyit árthat

Ahogy a beszélgetésből kiderült, ez a lehetőségek egy második, szervezeten belüli vonalára irányítja a figyelmet, amelyik a kockázatkezelésre épül. Így a modellek fejlesztése, a kockázatkezelésen keresztül megvalósított objektív értékelés és a szabályozói szempontokat képviselő auditorok három védelmi vonalat képeznének. Az EU egyébként explicit betiltaná az "elfogadhatatlan kockázatokat" jelentő alkalmazásokat, három másik kategória (magas, korlátozott és minimális/zéró kockázat) pedig engedélyezett lenne, a jogi kötelezettségek ezzel arányos csökkentése és az átláthatósági követelmények megfelelő szintű biztosítása mellett.

Az átláthatóság a mesterséges intelligencia etikai alapú szabályozásában alapvető jelentőséggel bír, miután az embereknek éreniük kell, hogy milyen indoklással születnek az életüket befolyásoló döntések. Egyre erősebb konszenzus alakul ki abban, hogy a döntéshozatalnak a magyarázható mesterséges intelligenciára (XAI) kell támaszkodnia, amelynek esetében a kimenetek okai mindig visszakövethetőek. Az embereket ugyanakkor még így sem szabad teljesen kivonni a folyamatból. Ha valakitől egy algoritmus tagad meg egy szolgáltatást, az indoklás nyilván akkor is jogos elvárás, de a teljes átláthatóság az MI-től függetlenül sem megvalósítható, sőt nem is célszerű bizonyos esetekben.

Az emberi beavatkozás és felügyelet lehetőségét természetesen az is szükségessé teszi, hogy az MI-technológia még közel sincs az elképzelt szinten, de az etikai szempontok miatt az sem látszik, hogy erről érdemes lenne bármikor is lemondani. A mesterséges intelligencia persze nem csak torzíthatja, hanem éppen erősítheti is a méltányosságot. A hiteldöntéseknél például olyan historikus adatokra támaszkodnak, amelyek nem reflektálnak az emberek helyzetének gyors változásaira. Ilyenkor olyan új típusú bemeneteket is használhatnak majd, mint a mobil adatok, a közüzemi számlák vagy akár az oktatás, bár nyilvnvaló, hogy az ilyen viszonylag kis adatkészletek használat újabb megoldandó problémákat generál.

Részletek az AI News beszámolójában »

Cloud & big data

100 millió dollárnyit zsarolt össze a Conti utódcsapata

A Black Basta valószínűleg a hírhedt orosz Conti hekkerbanda egykori tagjaiból állt össze tavaly, és úgy tűnik, rögtön nagyon sokat kaszáltak.
 
Hirdetés

Ráfizetünk, ha a védelmen spórolunk!

Ha a védelmen spórolunk, kiberbűncselekmény áldozatává válhatunk. A Sophos MRD (észlelő és helyzetkező) szolgáltatása védelmet nyújt.

Összeurópai szabályozás készteti a cégeket a biztonságosabb informatikai működésre, de a megvalósításhoz nemcsak technológia, hanem emberek is kellenek.
Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.