Utóbbit a brit miniszterelnök hozta össze. Úgy tűnik, Kína is hajlik az együttműködésre a veszélyek csökkentése érdekében.
Hirdetés
 

Nyilvánosságra hozták azt a 11 pontos kódexet, amely alapján a világ legfejlettebb országai a mesterségesintelligencia-fejlesztéseiket szabályozni kívánják. Az alapelvek már ismertek voltak, miután a tervezet néhány részlete kiszivárgott.

A tizenegy pontban nagy meglepetések nincsenek. Ahogy azt várni lehetett, alapvetően a kockázatalapú megközelítés érvényesül. A dokumentum első pontja ki is mondja: a fejlesztőknek az MI teljes életciklusát végig kell kísérniük a kockázatok azonosítása, értékelése és csökkentése érdekében. Ebbe be kell vonniuk többek között független külső tesztelőket. Ugyanezen elvet kell érvényesíteniük az MI-t használó szervezeteknek: amellett, hogy az MI-t rendeltetésszerűen kell használniuk, folyamatosan nyomon kell követniük a kockázatait, beleértve a biztonsági sebezhetőségeket.

Ezeknek a szabályoknak a betartásához ki kell alakítani olyan felületeket, melyek biztosítják az MI-rendszerek átláthatóságát például azáltal, hogy nyilvánossá teszik a modellek használhatóságának a korlátait, a visszaéléseket és így tovább. Szintén kellenek hatékony kommunikációs csatornák a fejlesztők egymás közötti, valamint az állami, civil és tudományos szervezetekkel történő felelősségteljes információmegosztására.

Mivel a szabályozás megközelítése kockázatalapú, a szervezeteknek ki kell dolgozniuk egy MI-re vonatkozó szabályzatot (governance, kockázatkezelés, adatvédelem, kockázatcsökkentő intézkedések), amihez megfelelő biztonsági ellenőrzésre van szükség (fizikai biztonság, kiberbiztonság, belső fenyegetések elleni védelem).

A szöveg már tükrözi az elmúlt időszak MI-vel kacsolatos tapasztalatait. Kitér például a tartalomhitelesítés fontosságára: egyértelműen azonosíthatóvá kell tenni az MI-vel készült tartalmakat. Valamint célzottan kell kutatni a mesterséges intelligencia társadalmi, biztonsági és védelmi kockázatait.

A G7-ek fontosnak tartották kiemelni: az MI kiemelt szerepet tölthet be a világ legnagyobb kihívásainak (pl. éghajlat, egészségügy, oktatás) kezelésében. Emiatt is fontos, hogy mielőbb szülessenek nemzetközi technikai szabványok, melyeket az országok széles köre elfogad, és amelyek a személyes adatok és a szellemi tulajdon védelmét is garantáló adatbeviteli módszereket biztosítanak.

Mindenki elismeri: szükség lesz a nemzetközi összefogásra

A ChatGPT robbanásszerű sikere tette teljesen világossá, hogy a fejlett mesterséges intelligenciák fejlesztését nem lehet nemzeti keretek között szabályozni. A "hogyanról" azonban a fejlesztésben élen járó országok álláspontja lassan közeledik egymáshoz: az EU elsősorban az adatvédelem felől közelít a problémához, az USA egyelőre az "ami nem tilos, azt szabad" álláspontot képviseli, és óvatosan kezeli a témát, Kína pedig a szigorú és szoros állami felügyeletben bízik. Ezeknek az álláspontoknak a közelítésére tett kísérletet a G7-nyilatkozattal párhuzamosan – de attól nem függetlenül – a brit miniszterelnök, Rishi Sunak. Összehozott egy nemzetközi konferenciát (AI Safety Summit), amelyen az MI-ipar érintettjei (pl. Elon Musk vagy Sam Altman) mellett 25 állam, köztük az Európai Unió, Kína és az USA képviseltette magát.

A megbeszélésen elfogadott dokumentum, az ún. Bletchley-nyilatkozat három fontos megállapítást tesz. Az MI óriási lehetőség az emberiség számára; ennek megfelelően a kockázatai is óriásiak; a kockázatokat csak globális összefogással lehet kezelni. (A dokumentum neve a konferencia helyszínére, a Bletchley Parkra utal. A helyszín amúgy szimbolikus: az épületében dolgoztak a 2. világháború alatt a brit kódtörők, köztük Alan Turing matematikus.)

A megbeszélésnek azonban az általánosságokat megfogalmazó nyilatkozaton túl van egy valóban fontos eredménye: Kína és az USA egyaránt hajlandóságot mutatott arra, hogy egymással is együttműködjenek az MI nemzetközi szabályozásában.

Piaci hírek

A robotok újabb bűnözési hullámot indíthatnak az Europol szerint

A robotok, a drónok és a mesterséges intelligencia fejlődésével a fizikai világban is megjelenik minden, ami eddig a digitális világra volt jellemző, nem beszélve arról, ha az automatizálás miatt tényleg tömegek veszítik majd el a megélhetésüket.
 
Hirdetés

Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben

A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.

Sok szervezet adatvezéreltnek tartja magát, mert van BI rendszere és heti dashboardja. A valóságban azonban ennél többről van szó; a kérdés ugyanis nem az, hogy van-e elég adat, hanem, hogy mennyire jól használják a döntések meghozatalához.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.