Miközben a ChatGPT-vel berobbant cég a hivatalos nyilatkozatok szintjén teljes mellszélességgel támogatja az MI-fejlesztések szabályozását, a háttérben folyik a lobbizás a külön bánásmódért.

Habár a ChatGPT csak tavaly novemberben vált széles körben elérhetővé, és helyezte a generatív algoritmusokat a közérdeklődés fókuszába, a fejlesztő OpenAI vezetősége már jó előre igyekezett gondoskodni arról, hogy a mesterséges intelligencia (MI) fejlesztése kapcsán megfogalmazódó aggályokra reflektáló szabályozási kísérletek ne korlátozzák túlságosan a cég mozgásterét.

Nagyjából így értelmezhető az a még 2022 szeptemberéből származó, uniós törvényhozóknak küldött dokumentum, amelyről a Time számolt be a héten. A lap birtokába került anyag a már akkor előkészítés alatt álló MI-s törvénytervezetet igyekezett az OpenAI kívánalmai szerint alakítani.

A white paperként aposztrofált írás bizonyos passzusai elnyerhették a döntéshozók tetszését, mivel több olyan szakasz is felfedezhető benne, amelyek bekerültek az MI szabályozásával kapcsolatban múlt héten az Európai Parlament által elfogadott törvénytervezetbe.

Kockázati tényezők

Az Európai Bizottság először két évvel ezelőtt tett javaslatot a mesterséges intelligencia szabályozásának kockázatalapú megközelítésére, amelynek keretei között nem elsősorban magát a technológiát, hanem annak felhasználását korlátoznák. A jogalkotók minimális, korlátozott, magas és elfogadhatatlan besorolást határoznának meg; az utóbbira nyilván a teljes tilalom lenne érvényes, míg a magas kockázatú megoldásokat ugyan nem tiltanák be alapértelmezett módon, de megkövetelnék működtetésük megfelelő transzparenciáját.

Mások mellett ilyenek lennének a választások eredményének befolyásolására is alkalmas MI-rendszerek vagy a több tízmillió felhasználóval rendelkező közösségimédia-platformok ajánlórendszerei, amelyek jelenleg teljesen átláthatan módon működnek. Az EP mostani döntése már az általános célú mesterséges intelligenciára és a nagy nyelvi modellekre is kiterjed. Az ilyen alapmodellek fejlesztőinek ugyancsak fel kell majd mérniük az egészségre, a biztonságra, a természetre, a társadalmi berendezkedésre vagy a jogállamiságra vonatkozó kockázatokat, és ennek nyomán be kell jegyeztetniük termékeiket egy uniós adatbázisba.

Ártatlannak látják magukat

Az OpenAI most kiszivárgott lobbianyaga leginkább azt próbálta elérni, hogy a mesterséges intelligencia felhasználása sokkal árnyaltabban minősüljön magas kockázatúnak. A cég nem látja jogosnak, hogy a generatív algoritmusokat ezzel a szigorú címkével lássák el, mivel az ilyen irányú fejlesztések átláthatóságát és a megfelelő fellépést a technológiai esetleges káros felhasználásával kapcsolatban egyébként is garantálja a tervezet 52. cikke.

A szabályozói környezet fellazítására tett kísérlet látványosan eltérő célokat rajzol ahhoz képest, ahogy a cég és annak vezetői a témával kapcsolatban az elmúlt időszakban megnyilatkoztak. Az OpenAI vezetője például rendszeresen felhívja a figyelmet az MI jelentette veszélyekre, és általában is kiáll a szigorú követelmények felállítása mellett. Ahogy azonban kiderült, leginkább mindezt úgy szeretné megvalósítani, hogy a saját munkájukat a lehető legkevésbé korlátozzák a bürokratikus intézkedések.

Mindeközben az AI Now Institute a kiszivárgott dokumentumra reagálva az iparági lobbitevékenység alaposabb vizsgálatára szólított fel. A politikai érdekvédelmi szervezet szerint a vállalatok bizonyítottan a szabályok felhígításáról győzködik a képviselőket, miközben a generatív algoritmusok káros hatásairól már most is tengernyi példát lehetne hozni. (Elég csak ide, ide, vagy esetleg ide kattintani.)

Cloud & big data

Emberként még iskolába se járhatna, de 200 millió telefonnál jár a kínai brand

A Realme illusztris társaságba került a mérföldkő gyors elérésével. A teljesítmény értékét tovább növeli, hogy a forgalom nagy része Kínán kívül realizálódik.
 
Hirdetés

Ráfizetünk, ha a védelmen spórolunk!

Ha a védelmen spórolunk, kiberbűncselekmény áldozatává válhatunk. A Sophos MRD (észlelő és helyzetkező) szolgáltatása védelmet nyújt.

Összeurópai szabályozás készteti a cégeket a biztonságosabb informatikai működésre, de a megvalósításhoz nemcsak technológia, hanem emberek is kellenek.
Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.