Szigorú szabályozással és súlyos büntetésekkel. Ha elfogadják, biztosan nem lesz uniós Palantir.

Több előtanulmány után megszületett a mesterséges intelligencia EU-s szabályozásának első tervezete. A várhatóan jövő héten nyilvánosságra kerülő tervezetszöveget a Politico szerezte meg (a PDF dokumentumot elérhetővé tette az AINews is).

A tervezet szerint és egy disztópikus rendszer kialakulásának megelőzése érdekében az Európai Unió szigorúan korlátozná az ún. magas kockázatú mesterségesintelligencia-alkalmazások használatát. Az viszont nem látható, hogy a tervezett szabályozást hogyan kívánja összehangolni az Ursula von der Leyen (nyitóképünkön) vezette Bizottság az ugyancsak általa meghirdetett technológiai szuverenitással.

Támogatott, tűrt, tiltott?

A szabályozást az indokolja, fogalmaz a tervezet szövege, hogy mesterséges intelligencia (MI) egyes alkalmazásai kockázatot jelenthetnek, és veszélyeztetik az uniós jogok által védett alapvető értékeket (az anyagi értékeken túl ilyen például az emberi élet, egészség és természetesen az alapvető szabadságjogok, köztük a magánélethez való jog). Mint a Politico fogalmaz, a szabályozással elébe menne az EU egy olyan totális megfigyelő állam kialakulásának, mint ami Kínában évek óta épül. Egyidejűleg a keretrendszerrel elő szeretnék segíteni az olyan MI-rendszerek fejlesztését és alkalmazását, melyek megfelelnek a közérdeknek, és védik az egyének alapvető jogait. Az azonban szinte biztos: ha a szöveget elfogadják, az EU-ban képtelenség lesz olyan céget felépíteni, mint a Palantir.

A tervezet szerint tagállami szinten értékelőtanácsot kell felállítani, amely teszteli és minősíti a kockázatos AI-rendszereket. Az értékelőtanács elé kellene vinni minden olyan fejlesztést, amely érint valamilyen uniós alapjogot. Ha ez megvalósul, érdekes helyzet alakulhat ki, hiszen olyan fejlesztésekről is döntés kell hozni, melyek előrehaladott állapotban vannak (önvezetők autók, felvételiztető HR-rendszerek stb.). A tanács feladata lenne többek között az MI-rendszerek piacra dobás előtti tesztelése, valamint annak értékelése, hogy van-e megfelelő emberi felügyelete az adott rendszernek.

A tanácsok működését közvetett módon egalizálná az EU: létrehoznák az Európai Mesterséges Intelligencia Testületet tagországonként egy-egy képviselővel, valamint kapna benne egy-egy helyet az EB és az EU adatvédelmi hatósága. A testület felügyelné a törvény alkalmazását, és megosztaná a tagországok tanácsaival a bevált gyakorlatokat. Ezt az ellenőrzési struktúrát az EDRi (European Digital Rights) jogvédő szervezet már kritizálta is a Politicónak. A szervezet képviselője, Ella Jakubowska szerint, ha a nemzeti hatóságoknak mérlegelési jogkörük lesz, akkor az kiskapuk sorát nyitja, és az MI-piac szürkezónáját növeli, ahogy erre más területen is számtalan példát lehet látni, ahol hasonló a szabályozás struktúrája.

Szigorúság a szankciókban

A tervezet a rendelet megsértőire súlyos szankciókat róna. Tiltott MI-rendszerek fejlesztéséért és forgalomba hozataláért a cégeket 20 millió eurós vagy a globális árbevételük 4 százalékának megfelelő büntetéssel lehetne sújtani.

Tilos lenne az MI-rendszerek alkalmazása tömeges megfigyelésre, egyének követésére (lényegében a profilalkotást is tilos lenne, ugyanis tiltanák a különböző forrásokból származó adatok egységes kezelését, elemzését). Ugyancsak tiltás alá esnének azok az alkalmazások, melyek a társadalmi státusszal kapcsolatos minősítéseket rendelnek emberekhez adatok alapján, vagy például viselkedési minták alapján értékelnék valaki megbízhatóságát vagy személyiségvonásait.

A nyilvános helyeken alkalmazható kamerás arcfelismerési rendszerek bevezetését külön engedélyhez kötnék, és általában is szigorítanának a biometrikus azonosítás alkalmazásán. Az embereket pedig külön értesíteni kell arról, ha MI-alapú rendszerrel kerülnek interakcióba. A rendvédelmi szervezetek azonban sok szempontból kivételt képeznének: súlyos bűncselekmények megelőzésére és felderítésére (terroristák felkutatására stb.) használhatnak például arcfelismerési technológiát nyilvános helyeken, ha annak használata időben és földrajzilag korlátozott. (A kamerás megfigyelés egyébként világszerte egyre elterjedtebb, ezeb a téren Budapest is az EU élvonalában van.)

Túl kevés és túl sok

A tervezet alapvetően nem hozott meglepetéseket. Az EU Alapjogi Ügynöksége tavaly decemberben közzétette az MI terén követendő etikai kereteket, majd januárban az Európai Parlament a szabályozás alapjául szolgáló keretrendszert is megszavazta. Ez rögzítette: az MI elsődlegesen és kizárólag olyan célokra használható, amely összhangban van az emberiség érdekével, a közös jó elősegítésével. felhasználáskor elengedhetetlen a humán kontroll, azaz az embernek képesnek kell lennie megváltoztathatni vagy kiiktatni az algoritmus működését, ha az nem várt eredményekkel végezné feladatát.

A januári szavazás már jelezte (364 igen, 274 nem és 52 tartózkodás) ebben a kérdésben igencsak megosztott az EU. (Jogvédő szervezetek például a közelmúltban az arcfelismerő rendszerek használatának teljes betiltását követelték az EB-nek írt nyílt levelükben.)

A másik oldalról a szigorú szabályozás visszavetheti az EU-s innovációt. A stratupok inkább elmennek az USA-ba vagy a fejlesztéseket kevésbé szigorúan kezelő egyéb országokba (itt Nagy-Britanniának újabb lehetőségei nyílhatnak). Emellett politikai feszültségeket is generálhat az USA és az EU között, véli az AINews. Washingtont ugyanis aggasztja Kína fejlődése, ezért az MI-fejlesztések lazább szabályozását kérte az EU-tól.

Márciusban Eric Schmidt, a NSCAI (National Security Commission on Artificial Intelligence) elnöke, a Google volt vezérigazgatója, azt nyilatkozta a Politicónak, hogy szerinte az EU stratégiája nem vezet sikerre. Az Unió nem versenyképes ezen a téren, ezért inkább partnerségre kellene törekednie az USA-val, valamint a nagy amerikai techcégekkel, melyek uralják az MI-fejlesztéseket.

Cloud & big data

Tesz a politikára az X

Egy félmilliárdos közösségi platform esetében aggasztó, ha nem erősíti, hanem éppen ellenkezőleg, gyengíti a politikai tartalmú álhírek elleni védőhálót. Az EU fenyeget, a népszavazásra készülő ausztrálok aggódnak.
 
A világ a "cloud first" stratégiát követi. Nem kérdés, hogy a IT-biztonságnak is azzal kell tartania a tempót, de nem felejtheti, hogy honnan startolt.

a melléklet támogatója a Clico Hungary

Hirdetés

Jön a Clico formabontó cloud meetupja, ahol eloszlatják a viharfelhőket

Merre mennek a bitek a felhőben, ledobja-e szemellenzőjét az IT-biztonságért felelős kolléga, ha felhőt lát, lesz-e két év múlva fejlesztés cloud nélkül? A Clico novemberben fesztelen szakmázásra hívja a szoftverfejlesztőket a müncheni sörkertek vibrálását idéző KEG sörművházba.

Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.