Több előtanulmány után megszületett a mesterséges intelligencia EU-s szabályozásának első tervezete. A várhatóan jövő héten nyilvánosságra kerülő tervezetszöveget a Politico szerezte meg (a PDF dokumentumot elérhetővé tette az AINews is).
A tervezet szerint és egy disztópikus rendszer kialakulásának megelőzése érdekében az Európai Unió szigorúan korlátozná az ún. magas kockázatú mesterségesintelligencia-alkalmazások használatát. Az viszont nem látható, hogy a tervezett szabályozást hogyan kívánja összehangolni az Ursula von der Leyen (nyitóképünkön) vezette Bizottság az ugyancsak általa meghirdetett technológiai szuverenitással.
Támogatott, tűrt, tiltott?
A szabályozást az indokolja, fogalmaz a tervezet szövege, hogy mesterséges intelligencia (MI) egyes alkalmazásai kockázatot jelenthetnek, és veszélyeztetik az uniós jogok által védett alapvető értékeket (az anyagi értékeken túl ilyen például az emberi élet, egészség és természetesen az alapvető szabadságjogok, köztük a magánélethez való jog). Mint a Politico fogalmaz, a szabályozással elébe menne az EU egy olyan totális megfigyelő állam kialakulásának, mint ami Kínában évek óta épül. Egyidejűleg a keretrendszerrel elő szeretnék segíteni az olyan MI-rendszerek fejlesztését és alkalmazását, melyek megfelelnek a közérdeknek, és védik az egyének alapvető jogait. Az azonban szinte biztos: ha a szöveget elfogadják, az EU-ban képtelenség lesz olyan céget felépíteni, mint a Palantir.
A tervezet szerint tagállami szinten értékelőtanácsot kell felállítani, amely teszteli és minősíti a kockázatos AI-rendszereket. Az értékelőtanács elé kellene vinni minden olyan fejlesztést, amely érint valamilyen uniós alapjogot. Ha ez megvalósul, érdekes helyzet alakulhat ki, hiszen olyan fejlesztésekről is döntés kell hozni, melyek előrehaladott állapotban vannak (önvezetők autók, felvételiztető HR-rendszerek stb.). A tanács feladata lenne többek között az MI-rendszerek piacra dobás előtti tesztelése, valamint annak értékelése, hogy van-e megfelelő emberi felügyelete az adott rendszernek.
A tanácsok működését közvetett módon egalizálná az EU: létrehoznák az Európai Mesterséges Intelligencia Testületet tagországonként egy-egy képviselővel, valamint kapna benne egy-egy helyet az EB és az EU adatvédelmi hatósága. A testület felügyelné a törvény alkalmazását, és megosztaná a tagországok tanácsaival a bevált gyakorlatokat. Ezt az ellenőrzési struktúrát az EDRi (European Digital Rights) jogvédő szervezet már kritizálta is a Politicónak. A szervezet képviselője, Ella Jakubowska szerint, ha a nemzeti hatóságoknak mérlegelési jogkörük lesz, akkor az kiskapuk sorát nyitja, és az MI-piac szürkezónáját növeli, ahogy erre más területen is számtalan példát lehet látni, ahol hasonló a szabályozás struktúrája.
Szigorúság a szankciókban
A tervezet a rendelet megsértőire súlyos szankciókat róna. Tiltott MI-rendszerek fejlesztéséért és forgalomba hozataláért a cégeket 20 millió eurós vagy a globális árbevételük 4 százalékának megfelelő büntetéssel lehetne sújtani.
Tilos lenne az MI-rendszerek alkalmazása tömeges megfigyelésre, egyének követésére (lényegében a profilalkotást is tilos lenne, ugyanis tiltanák a különböző forrásokból származó adatok egységes kezelését, elemzését). Ugyancsak tiltás alá esnének azok az alkalmazások, melyek a társadalmi státusszal kapcsolatos minősítéseket rendelnek emberekhez adatok alapján, vagy például viselkedési minták alapján értékelnék valaki megbízhatóságát vagy személyiségvonásait.
A nyilvános helyeken alkalmazható kamerás arcfelismerési rendszerek bevezetését külön engedélyhez kötnék, és általában is szigorítanának a biometrikus azonosítás alkalmazásán. Az embereket pedig külön értesíteni kell arról, ha MI-alapú rendszerrel kerülnek interakcióba. A rendvédelmi szervezetek azonban sok szempontból kivételt képeznének: súlyos bűncselekmények megelőzésére és felderítésére (terroristák felkutatására stb.) használhatnak például arcfelismerési technológiát nyilvános helyeken, ha annak használata időben és földrajzilag korlátozott. (A kamerás megfigyelés egyébként világszerte egyre elterjedtebb, ezeb a téren Budapest is az EU élvonalában van.)
Túl kevés és túl sok
A tervezet alapvetően nem hozott meglepetéseket. Az EU Alapjogi Ügynöksége tavaly decemberben közzétette az MI terén követendő etikai kereteket, majd januárban az Európai Parlament a szabályozás alapjául szolgáló keretrendszert is megszavazta. Ez rögzítette: az MI elsődlegesen és kizárólag olyan célokra használható, amely összhangban van az emberiség érdekével, a közös jó elősegítésével. felhasználáskor elengedhetetlen a humán kontroll, azaz az embernek képesnek kell lennie megváltoztathatni vagy kiiktatni az algoritmus működését, ha az nem várt eredményekkel végezné feladatát.
A januári szavazás már jelezte (364 igen, 274 nem és 52 tartózkodás) ebben a kérdésben igencsak megosztott az EU. (Jogvédő szervezetek például a közelmúltban az arcfelismerő rendszerek használatának teljes betiltását követelték az EB-nek írt nyílt levelükben.)
A másik oldalról a szigorú szabályozás visszavetheti az EU-s innovációt. A stratupok inkább elmennek az USA-ba vagy a fejlesztéseket kevésbé szigorúan kezelő egyéb országokba (itt Nagy-Britanniának újabb lehetőségei nyílhatnak). Emellett politikai feszültségeket is generálhat az USA és az EU között, véli az AINews. Washingtont ugyanis aggasztja Kína fejlődése, ezért az MI-fejlesztések lazább szabályozását kérte az EU-tól.
Márciusban Eric Schmidt, a NSCAI (National Security Commission on Artificial Intelligence) elnöke, a Google volt vezérigazgatója, azt nyilatkozta a Politicónak, hogy szerinte az EU stratégiája nem vezet sikerre. Az Unió nem versenyképes ezen a téren, ezért inkább partnerségre kellene törekednie az USA-val, valamint a nagy amerikai techcégekkel, melyek uralják az MI-fejlesztéseket.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak