Három vezető mesterségesintelligencia-fejlesztő cég vezetői is aláírták a Center for AI Safety (CAIS) tegnap közzétett, egyetlen mondatból álló nyilatkozatát, amelyben a technológia által hordozott "kihalási kockázatokra" figyelmeztetnek. Az OpenAI, a DeepMind és az Anthropic vezérigazgatói ezeket a veszélyeket a nukleáris háborúhoz vagy a világjárványokhoz hasonlították, és a felsorolt, társadalmi szintű kockázatok mellett ma már globális prioritásnak minősítették az MI alkalmazásából fakadó rizikó csökkentését is. A nyilatkozat aláírói között MI-szakértők, illetve a Microsoft vagy a Google vezetői is szerepelnek.
Ehhez a CAIS a Business Insidernek nyilatkozva hozzátette, hogy ellenőrizte az aláírók személyét, illetve azt a tényt, hogy valóban ők maguk csatlakoztak-e a kezdeményezéshez. A lap a DeepMind kommentárját is idézi, mely szerint a mesterséges intelligencia átalakítja a társadalmat, így elengedhetetlen, hogy felismerjük az általa kínált lehetőségek mellett a technológia árnyoldalait is. A társaság kiemelte a politikai döntéshozókkal folytatott munkát az áttörések előnyeinek kihasználására és a kockázatok mérséklésére, miközben az elmúlt hónapokban egyre gyakrabban érkeznek a fentihez hasonló figyelmeztetések.
A felhasználók sem tűnnek nyugodtnak
Korábban nagy nyilvánosságot kapott, amikor ugyancsak szakértők és iparági vezetők reagáltak az OpenAI ChatGPT virális népszerűségére és az arra épülő, MI-alapú termékek megjelenésére. A március végi nyílt levélhez időközben már több mint 10 ezren csatlakoztak, azonnali hat hónapos szünetet kérve a GPT-4-nél erősebb rendszerek fejlesztésében. Sőt a jelek szerint a nagyközönség is tart az ellenőrizetlen MI-technológiától: a Reuters és az Ipsos reprezentatív online kérdőíves kutatása alapján az amerikaiak nagy többsége szerint a mesterséges intelligencia gyors terjedése veszélybe sodorhatja az emberiség jövőjét.
Az ilyen irányú félelmek alapja egyébként részben a big tech vállalatok között feltámadt fegyverkezési verseny, ahogy a társaságok egyre többet invesztálnak a mesterséges intelligencia fejlesztésébe, és kapkodva dobják piacra az erre épülő új termékeket. A szabályozási kereteket maga mögött hagyó, elgyorsult fejlődés már a politikai döntéshozók körében is mindenhol kiemelt téma: legutóbb mi is beszámoltunk a G7 csoport Japánban tartott fórumán kiadott nyilatkozatról, amelyben a résztvevők egyetértettek a közös ellenőrzés szükségességéről, miután a generatív MI-technolgiák a vártnál sokkal gyorsabban fejlődnek.
Visszatérve a CAIS közleményére, az aláírók között mindenképpen Sam Altman, az OpenAI vezérigazgatója tűnik a legérdekesebbnek, akinél többet nem sokan tettek a fejlett mesterséges intelligencia létrehozásáért és becsatornázásáért a valós világba. Altman korábban is rendszeresen felvetette, hogy a mesterséges intelligencia jövője megrémíti, bár eközben azt is hangoztatja, hogy a technológia mennyivel jobbá teszi a világot. Ez a disszonancia, ha nem is könnyen, de azzal magyarázható, hogy egyelőre nem tartja veszélyesnek az MI-t, de belátható időn belül szerinte is azzá válhat, így ő maga is sürgeti kockázatokra reagáló szabályozás megalkotását.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak