Még a hétfői hivatalos bejelentés előtt szellőztette meg a Reuters azt, hogy a G7-csoportnak a tavaszi előkészületek után mostanra sikerült tető alá hozni egy olyan dokumentumot, amely részletesen szabályozza, milyen alapvető értékek és magatartási szabályok mentén tanácsos a mesterséges intelligenciával (MI) kapcsolatos fejlesztéseket végezni.
A vállalatoknak szánt magatartási kódex a generatív algoritmusok felfutásával fókuszba került problémákat és potenciális veszélyeket igyekszik kezelni. Az iránymutatás a remények szerint csökkenti a technológiával esetlegesen végrehajtható visszaélések lehetőségét, egyben egyfajta sorvezetőként is szolgálhat az egyes országokban, régiókban párhuzamosan folyó szabályozási törekvések számára.
A hírügynökségi értesülések alapján a kódex 11 pontból áll, célja pedig a "a biztonságos, védett és megbízható mesterséges intelligencia előmozdítása világszerte" olyan iránymutatások megfogalmazásával, amelyek elsősorban "a legfejlettebb mesterséges intelligencia-rendszereket, köztük a legfejlettebb alapmodelleket és generatív mesterségesintelligencia-rendszereket fejlesztő szervezetek tevékenységét" érintik. Az aláírók szerint mindezek betartásával úgy lehet kihasználni az algoritmusok jelentette lehetőségeket, hogy közben kezelhetők maradnak a technológiával járó kockázatok és kihívások.
Az anyag többek között arra ösztönzi a vállalatokat, hogy "tegyenek megfelelő intézkedéseket a kockázatok azonosítására, értékelésére és mérséklésére az MI életciklusa során, valamint az MI-termékek forgalomba hozatalát követően felmerülő incidensek és visszaélési minták kezelésére".
A magatartási kódex továbbá nyilvános jelentéstételi kötelezettséget ró a területtel foglalkozó szervezetekre, amelyekben részletesen kitérnek az általuk fejlesztett MI-rendszerek képességeire, korlátaira és használatának aspektusaira. További feladatként szerepel a "robosztus biztonsági ellenőrzésekbe" történő befektetés.
Mindenki máshogy csinálja
A ChatGPT berobbanásával egyértelmű feladatként jelent meg a fejlett mesterséges intelligenciák fejlesztését megfelelő keretek között tartó szabályozás megalkotása. Az EU szigorú megoldásban gondolkodik, az USA kicsit óvatosan kezdett mozgolódni, Kínában pedig természetesen teljesen egyedi szemlélettel állnak a problémához.
A G7-es országok vezetői májusban állapodtak meg a mesterséges intelligencia megbízhatóságát célzó szabványok szükségességéről, hirosimai csúcstalálkozójukon pedig közös nyilatkozatban ismerték el, hogy a technológia szabályozása nem tartott lépést annak fejlődésével. Ebben azt is megfogalmazták, hogy a közös célra irányuló megközelítések eltérőek lehetnek, de az MI-re vonatkozó kereteknek összhangban kell lenniük a demokratikus értékekkel.
A csoport elnökségét idén ellátó Japán miniszterelnöke, Kisida Fumio néhány hete már azt is bejelentette, hogy a G7-ek vezetői az év végéig megegyeznek a mesterséges intelligencia nemzetközi szabályozásról. A tagok a hirosimai MI-folyamatként (Hiroshima AI Process) ismert összehangolt megközelítés részeként fogalmazzák meg a vonatkozó irányelveket, melynek fontos elemét adja a mostanra elkészült magatartási kódex. Kisida a különböző érdekelt felek véleményére alapozva olyan szabályokat ígért, amelyek a nemzetközi közösség minden tagjának lehetővé teszi a technológiából fakadó gazdasági növekedést és javuló életkörülményeket.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak