Egy frissen elfogadott jelentés képezheti az alapját annak a jogi keretrendszernek, amely szabályozná, mire lehet és mire tilos felhasználni a mesterséges intelligenciát.

Szerdán az EU-s képvidelők 364 igen, 274 nem és 52 tartózkodás mellett elfogadták azt a jelentést, amely alapján elkészülhet a mesterséges intelligencia (MI) régiós felhasználását regulázó keretrendszer. Bár a szövegezés (PDF) viszonylag nagy többséggel átment, az elutasítások arányából is sejteni lehet, hogy nem könnyű témáról van szó.

Középpontban az ember

A jelentés egyik legfontosabb megállapítása, hogy a mesterséges intelligencia felhasználásakor mindenképpen szükség van a humán kontrollra. Azaz arra, hogy emberi beavatkozással meg lehessen változtatni, vagy éppen teljesen ki lehessen iktatni az algoritmus működését, amennyiben az nem várt eredményekkel végezné feladatát. A megfogalmazás hangsúlyozza, hogy az MI elsődlegesen és kizárólag olyan célokra használható, amely összhangban van az emberiség érdekével, a közös jó elősegítésével.

Az emberélet kioltására alkalmas autonóm rendszerekkel (lethal autonomous weapon systems - LAWS) kapcsolatban évek óta komoly vita folyik a világban. Az alapvető etikai és jogi kérdéseket felvető témával kapcsolatban a jelentés egy olyan stratégia megalkotását szorgalmazza, amely megtiltaná a gyilkolásra maguktól képes robotok fejlesztését és használatát. Ez a tiltás azonban nem érintené azokat a rendszereket, ahol a likvidálási utasítást - megfelelő mérlegelés mellett - embernek kell kiadnia. A szöveg arra sarkallja az Unió döntéshozóit, hogy vállaljanak vezető szerepet a témával kapcsolatos világszintű szabályrendszer felállításában.

Ami az MI polgári célú felhasználást illeti, a jelentés kiemeli, hogy az ilyen rendszerek fokozott használata a közszolgáltatásokban, különösen az egészségügyben és az igazságszolgáltatásban, nem helyettesítheti az emberi kapcsolatokat, és nem vezethet diszkriminációhoz. Az állampolgárokat mindig tájékoztatni kell arról, ha egy algoritmus alapján döntést hoznak róluk, és lehetőséget kell biztosítani számukra a fellebbezésre. A dokumentum megfogalmazása szerint az MI használata az igazságszolgáltatásban elősegítheti az eljárások felgyorsítását és racionálisabb döntések meghozatalát, a végső bírósági döntéseket embernek kell meghoznia.

A jelentés figyelmeztet az alapvető emberi jogokat és az állam szuverenitását fenyegető veszélyekre is, amelyek az ilyen jellegű technológiák tömeges polgári és katonai megfigyelésben történő alkalmazásából erednek. Az állami hatóságokat arra szólítja, hogy tiltsák meg a "rendkívül tolakodó társadalmi pontozási alkalmazások" használatát (az állampolgárok ellenőrzésére és minősítésére) - ilyesmit például Kínában gond nélkül bevet az állampárt.

Külön rész foglalkozik az egyre komolyabb gondot jelentő deepfake technológiával. A jelentés szerint ezek potenciálisan képesek destabilizálni országokat, rendkívül jól használhatók hamis információk terjesztésére és ezáltal a különböző választások befolyásolására is. Az ilyen "művek" készítőit köteleznék arra, hogy a manipulált anyagokat "nem eredeti" megjelöléssel lássák el, illetve folytatni kell a technológia felismerését és visszaszorítását célzó kutatásokat.

Nem mindenki tapsol

Hogy mennyire nincs egységes álláspont a kérdésben, azt jól szemlélteti, hogy az Európai Parlamenti helyek szűk tizedét birtokló Zöldek/Európai Szabad Szövetség képviselőcsoport még a szavazás előtt kritikus hangvételű közleményt jelentetett meg. A többek között a frissen bekerült kalózpárti képviselőket is soraiban tudó frakció azért aggódik, mert szerintük a szövegezés több helyen is lehetőséget ad arra, hogy alapvető emberi jogokat sértő technológiákat vessenek be az EU területén.

Az egyik ilyen problémás rész a nyilvános helyen működő arcfelismerő rendszerekhez köthető, amelyeket a korábbi terveknek megfelelően a jelentés egyelőre csak jegelne, időt adva a döntéshozóknak ahhoz, hogy megfelelő tudás birtokában mérlegeljék ezek engedélyezését. A kritikát megfogalmazó frakció szerint a moratórium helyett élből el kellene vetni ezt a lehetőséget, mivel annak működtetésébe van kódolva a visszaélés lehetősége és a diszkriminatív használat. (Ennek kapcsán szintén kézenfekvő Kínát felhozni, ahol elképesztő ütemben építik ki a kamerás megfigyelésre alkalmas infrastruktúrát.)

A jelentést leszavazó képviselők szerint azt sem szabadna megengedni, hogy algoritmusok javasoljanak döntéseket a bírósági ügyekben. Mindez álláspontjuk szerint ellentétes az igazságszolgáltatás gondolatával, azaz az eseti független értékelés biztosításával. Az MI-rendszerekről többször kimutatták, hogy elfogultak, diszkriminatívak és hajlamosak a hibákra, ezért soha nem lehetnek semlegesek - fogalmaz a kritikus közlemény.

Cloud & big data

Szakértők figyelmeztetnek: ne küldözgessünk chatbotoknak az orvosi leleteinket

Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.