A Louisville-i Egyetemen dolgozó lett informatikus, Roman Jampolszki (Roman Yampolskiy) száznál is több könyv és tudományos publikáció szerzője, aki többek között a mesterséges intelligencia biztonsági vonatkozásaival foglalkozó munkáiról ismert. Ezekben sokszor figyelmeztetett a fejlett MI egzisztenciális kockázataira, különféle óvintézkedéseket és egy ezzel összefüggő "biztonsági gondolkodásmódot" szorgalmazva a később már megoldhatatlan, esetleg végzetes problémák megelőzésére.
Legújabb könyve, az AI: Unexplainable, Unprecictable, Uncontrollable (kb. Megmagyarázhatatlan, kiszámíthatatlan és ellenőrizhetetlen MI) kapcsán a tudós Lex Fridman műsorában több mint két órán át magyarázta a mesterséges intelligencia lehetséges rizikóit, és előrejelzéseiben nem sok jót ígért. Szerinte az, hogy az MI a következő száz év során az emberiség pusztulását okozhatja-e, attól függ, hogy képesek leszünk-e rendkívül összetett és hiba nélkül működő szoftvereket létrehozni, ezt pedig nem tartja valószínűnek.
Eddig ugyanis egyetlen MI-modell sem volt biztonságban azoktól, akik megpróbálták rávenni a tervezőinek szándékával ellentétes dolgokra. A generatív MI-modellek első generációit éppenséggel meghatározzák a rendellenességek, a visszaélések vagy a félretájékoztatás. A helyzetről valóban sokat elmond, amikor egy Google-szintű cég élesben működő terméke is kövek és ragasztó elfogyasztását javasolja a felhasználóknak, a netet pedig elöntötte a mélyhamisítással (deepfake) gyártott pornó vagy a választók megtévesztését célzó anyagok.
Valószínű, hogy nem lesz több dobásunk
Jampolszki szerint a mesterséges intelligencia irányításához folyamatosan működő biztonsági rendszerekre lenne szükség: még ha jó munkát végeznek is például a GPT következő néhány verziójával, az MI akkor is egyfolytában tanul, változik és interakciókat végez. Az egzisztenciális kockázatokat a tudós olyan műfajnak nevezte, ahol mindenkinek csak egyetlen esélye van, azt pedig lehetetlen megjósolni, milyenek lesznek a meglévőnél okosabb rendszerek – de az MI olyasmivel fog előrukkolni, amiről ma még sejtelmünk sem lehet.
A szakember így 99,9 százalékra teszi, hogy kivégezzük saját magunkat a mesterséges szuperintelligencia hajszolásával, ami elég szigorúnak tűnik, de a fentiek alapján könnyen magyarázható. Érdekes egyébként, hogy az optimisták is 20, 10, 5 vagy 1-2 százalékos esélyekkel dobálóznak ebben a kérdésben, ami csak egy fokkal megnyugtatóbb a 99-nél: ha mondjuk egy méretes aszteroidáról derülne ki, hogy 5 százalék eséllyel telibe kaphatja a Földet, akkor a megfelelő helyeken egészen bizosan elkezdődne a szaladgálás.
Az intelligencia formáit és korlátait kutató tudós arról is beszélt, hogy többféle végzetes kimetetet lehet elképzelni, amelyek közül csak egy az emberiség fizikai megsemmisítése. Ugyanúgy benne lehet a pakliban a kollektív szenvedés, ami talán még az előző forgatókönyvnél is rosszabb, vagy az a lehetőség, hogy elvész az emberek létezésének az értelme: ha az MI-rendszerek eljutnak arra a szintre, és minden elképzelhető feladatot képesek lesznek jobban elvégezni az embereknél, akkor nem világos, hogy mit kezdünk majd magunkkal.
A megfelelő lépésekkel kellene haladnunk
Ahogy Jampolszki már korábban kifejtette, a csapdahelyzet lényege, hogy a szuperintelligens MI kifejlesztését megelőzően nem tudjuk tesztelni a rá vonatkozó elképzeléseinket, de működő biztonsági intézkedések nélkül őrültség ilyesminek a létrehozására törekedni. A legjobb megoldás mindennek alapján az lenne, ha már a mostani, kezdetlegesebb rendszerek esetében is korlátozó intézkedéseket alkalmaznánk, amelyeket szükség szerint alakítunk az MI kapacitásának növekedésével – ilyesmi azonban nem igazán létezik még.
Azzal ő is egyetért, hogy ha a mesterséges intelligenciát sikerülne kordában tartani, azzal az apokaliptikus fenyegetésből az emberiség problémáit megoldó támogatáshoz juthatunk. Egyelőre azonban inkább csak a buktatók látszanak: Jampolszki már jó pár évvel ezelőtt arra figyelmeztetett, hogy az MI új támadási vektorokat fedezhet fel, kifinomult társadalmi és pszichológiai manipulációba kezdhet, előre nem látható módon használhatja fel a már meglévő hardveres komponenseket, és még sok más dologra lehet képes.
Ez innentől nem a hagyományos informatikai probléma, ami a számítógépek és a hálózatok megfertőzésére korlátozódik, hanem a pszichéjük elleni támadással, megvesztegetéssel, zsarolással és agymosással fenyegeti mindazokat, akik kapcsolatba kerülnek vele. A biztonsági korlátok felállítása ugyanakkor kedvező mellékhatásokkal járna a kiberbiztonság vagy a kriptográfia fejlődésére nézve. Igaz, olyan kutatók is vannak, akik szerint léteznek azok a korlátozó intézkedések, amelyek bezárva tarthatnák a gépi szuperintelligenciát.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak