
Az innovatív MI-eszközök eddig nem látott egészséget és jólétet hozhatnak, azonban számos vezető MI-vállalat nem elégszik meg ennyivel, és kimondott célja egy olyan szuperintelligenciát felépítése, ami lényegében minden kognitív feladatban felülmúlhat minket. Ez pedig aggasztó kérdéseket vet fel az emberek gazdasági értelemben való jelentéktelenné válásától kezdve a szabadság, a méltóság és az ellenőrzés elvesztésén át a nemzetbiztonsági kockázatokig, sőt akár az emberiség potenciális kihalásáig – olvasható abban a kiáltványban, amelynek célja, hogy láthatóságot biztosítson az általános mesterséges intelligencia (AGI) ész nélküli hajszolását ellenzők egyre növekvő táborának.
A nyílt levelet már több ezer tudós, üzletember, politikus, művész, médiaszemélyiség és vallási vezető is aláírta, a technológiai oldalról olyan nevekkel, mint a gépi tanulás és a mesterséges intelligencia területén elért eredményeiért Nobel-díjjal kitüntetett Geoffrey Hinton, az ugyancsak az MI "keresztapái" között emlegetett, Turing-díjas Yoshua Bengio, vagy az Apple és a Virgin vállalatok alapítói, Steve Wozniak és Richard Branson. A mezőnyre azonban általában is jellemző, hogy a szélsőjobbos influenszertől a pápai tanácsadóig, a médiaceleb brit uralkodói családtagoktól a nyugállományú admirálisig minden rendű és rangú közéleti szereplő megtalálható a támogatók soraiban.
Mit akarnak valójában elérni az aláírók?
A kiáltvány egy egyszerű követelést fogalmaz meg: olyan tilalmat kell bevezetni a szuperintelligencia fejlesztésére vonatkozóan, amit csak akkor lenne szabad feloldani, ha széles körű tudományos konszenzus alakul ki a fejlesztések biztonságos és ellenőrizhető megvalósításáról, ami elnyeri a közvélemény szilárd támogatását is. A nyílt levelet előterjesztő Future of Life Institute (FLI) társaslapítója, Anthony Aguirre erről szóló sajtóközleményében kiemeli, hogy az említett mesterségesintelligencia-rendszerek építői a világon senkitől sem kaptak felhatalmazást a mindannyiunk jövőjét meghatározó munkára, és ők maguk sem kérdezték meg soha az emberiségtől, hogy rendben van-e a dolog.
Az FLI azonban helyettük is megkérdezte, és arra jutott, hogy az emberek nagy része elfogadhatatlannak tartja a jelenlegi tempót. A szervezet felmérése alapján az amerikaiaknak mindössze 5 százaléka támogatja a fejlett MI-eszközök gyors és szabályozatlan fejlesztését, ezzel párhuzamosan pedig több mint 73 százalékuk támogatja a technológiát érintő, "erőteljes szabályozási intézkedéseket". A szuperintelligenciáról szólva az is kiderült, hogy a válaszadók 64 százaléka szerint jegelni kellene az ilyen rendszerek építését, amíg nem sikerül igazolni az emberi intelligenciát meghaladó MI-modellek biztonságosságát és irányíthatóságát – ellenkező esetben pedig le kell mondani róluk.
Ezermilliárdos befektetések a túloldalon
Bengio, aki a nyáron nonprofit kutatási szervezetet hozott létre a safe-by-design MI-rendszerek fejlesztésének technikai megalapozására, annak a tudományos feltárását sürgeti, hogy miként lehetséges olyan MI-rendszereket tervezni, amelyek alapvetően képtelenek ártani az embereknek, emellett pedig a nyilvánosságot is sokkal jobban bevonná a közös jövőnket alakító döntésekbe. A kommentárok szerint persze éppen az ilyen elképzelések miatt utópisztikus a levél üzenete: az AGI-t sokan tartják például megvalósíthatatlan vagy nagyon távoli technikai célnak, miközben már a jelenlegi, a szuperintelligenciához képest primitív generatív MI-eszközök is egyre nyilvánvalóbb károkat okoznak.
Az is érdekes, hogy kik nem írták alá a levelet: a listáról hiányoznak ugyanis a technológiai ágazat tényleges befolyással rendelkező vezetői és a magas szintű döntéshozók. Nem mintha közülük soha senki ne írt volna alá hasonló kiáltványokat, legyen szó az OpenAI-t irányító Sam Altmanről vagy az xAI-t futtató Elon Muskról, de a ChatGPT 2022 végi megjelenése óta kiadott, lassításra és szabályozásra való felhívásoknak az égvilágon semmi hatásuk nem volt. A mostani eset talán annyiban különleges, hogy nagyon széles ideológiai skáláról mutat fel egységes támogatást azzal kapcsolatban, hogy a fejlesztésnek szabályozott, módját és megvalósítását tekintve pedig demokratikus folyamatnak kell lennie.
Most még lehetne értelmesen csinálni
Miután naponta lehet olvasni vagy tapasztalni azokat a jelenségeket, amelyek mentén az MI felforgatja az oktatást, lezülleszti az az információs teret, fokozza az egyenlőtlenségeket, újabban pedig tömegeknek okoz mentális egészségügyi problémákat, talán nem tűnik túlzásnak, ha valaki aggasztónak tartja, amikor tőkebefektetők irányításával célozzuk meg az emberi intellektust meghaladó AGI kifejlesztését. Az aláírók közül többen kiemelik, hogy a szuperintelligencia fejlesztését öngyilkos dolog versenyként kezelni. Sőt még a tudományos konszenzus sem lenne elegendő biztosíték, mert a technológiai fejlődés nem függ ugyan a nyilvánosság jóváhagyásától, de az AGI létrehozásával összefüggő tudomány sem áll a megfelelő szinten.
Így a közvéleménynek joga van többet követelni a szóban forgó technológiai konszenzusnál, ami akár a folyamat felfüggesztését is jelentheti. Stephen Fry megjegyzése szerint pillanatnyilag nincs is szükség a megismerhetetlen és rendkívül kockázatos szuperintelligencia hajszolására ahhoz, hogy az emberiség javára fordítsuk az MI-ben rejlő potenciált. Az AGI definíció szerint olyan erőt hozna létre, amelyet nem érthetünk és nem irányíthatunk, amíg azt sem értjük, hogyan működik a gondolkodás – a minimum pedig az lenne, hogy megfelelő kereteket követeljünk meg egy olyan technológia építésekor, ami még saját fejlesztői szerint is kisebb-nagyobb kockázatokat hordoz az egész emberiség jövőjét illetően.
Részletek a superintelligence-statement.org oldalon »
Az end-to-end védelmeké a jövő
A kódbiztonság integrálásával új fejlődési szakaszukba léptek a felhős védelmi platformok. Werner Obringot, a Clico Hungary cloud security architektjét kérdeztük a miértekről és hogyanokról.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak