Habár a ChatGPT csak tavaly novemberben vált széles körben elérhetővé, és helyezte a generatív algoritmusokat a közérdeklődés fókuszába, a fejlesztő OpenAI vezetősége már jó előre igyekezett gondoskodni arról, hogy a mesterséges intelligencia (MI) fejlesztése kapcsán megfogalmazódó aggályokra reflektáló szabályozási kísérletek ne korlátozzák túlságosan a cég mozgásterét.
Nagyjából így értelmezhető az a még 2022 szeptemberéből származó, uniós törvényhozóknak küldött dokumentum, amelyről a Time számolt be a héten. A lap birtokába került anyag a már akkor előkészítés alatt álló MI-s törvénytervezetet igyekezett az OpenAI kívánalmai szerint alakítani.
A white paperként aposztrofált írás bizonyos passzusai elnyerhették a döntéshozók tetszését, mivel több olyan szakasz is felfedezhető benne, amelyek bekerültek az MI szabályozásával kapcsolatban múlt héten az Európai Parlament által elfogadott törvénytervezetbe.
Kockázati tényezők
Az Európai Bizottság először két évvel ezelőtt tett javaslatot a mesterséges intelligencia szabályozásának kockázatalapú megközelítésére, amelynek keretei között nem elsősorban magát a technológiát, hanem annak felhasználását korlátoznák. A jogalkotók minimális, korlátozott, magas és elfogadhatatlan besorolást határoznának meg; az utóbbira nyilván a teljes tilalom lenne érvényes, míg a magas kockázatú megoldásokat ugyan nem tiltanák be alapértelmezett módon, de megkövetelnék működtetésük megfelelő transzparenciáját.
Mások mellett ilyenek lennének a választások eredményének befolyásolására is alkalmas MI-rendszerek vagy a több tízmillió felhasználóval rendelkező közösségimédia-platformok ajánlórendszerei, amelyek jelenleg teljesen átláthatan módon működnek. Az EP mostani döntése már az általános célú mesterséges intelligenciára és a nagy nyelvi modellekre is kiterjed. Az ilyen alapmodellek fejlesztőinek ugyancsak fel kell majd mérniük az egészségre, a biztonságra, a természetre, a társadalmi berendezkedésre vagy a jogállamiságra vonatkozó kockázatokat, és ennek nyomán be kell jegyeztetniük termékeiket egy uniós adatbázisba.
Ártatlannak látják magukat
Az OpenAI most kiszivárgott lobbianyaga leginkább azt próbálta elérni, hogy a mesterséges intelligencia felhasználása sokkal árnyaltabban minősüljön magas kockázatúnak. A cég nem látja jogosnak, hogy a generatív algoritmusokat ezzel a szigorú címkével lássák el, mivel az ilyen irányú fejlesztések átláthatóságát és a megfelelő fellépést a technológiai esetleges káros felhasználásával kapcsolatban egyébként is garantálja a tervezet 52. cikke.
A szabályozói környezet fellazítására tett kísérlet látványosan eltérő célokat rajzol ahhoz képest, ahogy a cég és annak vezetői a témával kapcsolatban az elmúlt időszakban megnyilatkoztak. Az OpenAI vezetője például rendszeresen felhívja a figyelmet az MI jelentette veszélyekre, és általában is kiáll a szigorú követelmények felállítása mellett. Ahogy azonban kiderült, leginkább mindezt úgy szeretné megvalósítani, hogy a saját munkájukat a lehető legkevésbé korlátozzák a bürokratikus intézkedések.
Mindeközben az AI Now Institute a kiszivárgott dokumentumra reagálva az iparági lobbitevékenység alaposabb vizsgálatára szólított fel. A politikai érdekvédelmi szervezet szerint a vállalatok bizonyítottan a szabályok felhígításáról győzködik a képviselőket, miközben a generatív algoritmusok káros hatásairól már most is tengernyi példát lehetne hozni. (Elég csak ide, ide, vagy esetleg ide kattintani.)
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak