Bár sokak szerint még sehol sem tartunk az emberi intellektust nemcsak megközelítő, hanem túl is haladó mesterséges általános intelligencia (AGI) megalkotásában, sőt egyes szakemberek szerint nem leszünk képesek soha ilyesmit építeni, az OpenAI-nál hosszú ideje szükségszerűségként kezelik ezt a lehetőséget. A vállalat vezérigazgatója, Sam Altman számtalanszor beszélt úgy a dologról, hogy már világosan látják az AGI kifejlesztéséhez vezető utat, és a gyakorlati tapasztalatok ugyan még nem sok mindenben támasztották alá a befektetőknek szóló sikerpropagandát, a jelek szerint az OpenAI vezetői tényleg biztosak voltak a szuperintelligencia küszöbön álló megjelenésében.
A The Atlantic újságírója, Karen Hao éppen a társaság 2023 végi felfordulásáról és Altman sikertelen menesztéséről készül megjelentetni új könyvét, amelynek kapcsán a lap részleteket osztott meg az ahhoz készített interjúk felhasználásával. Mint kiderült, az OpenAI alapítója és korábbi vezető tudósa, Ilya Sutskever a hozzá közel álló személyek szerint annyira rácsavarodott az AGI-ra, hogy két évvel ezelőtt magától értetődő módon egy bunker építéséről beszélt, ahova a jelentkezők elvonulhatnak a mesterséges általános intelligencia kiadásakor. Azt jósolta ugyanis, hogy a technológia valamiféle tömeges elragadtatást és egy lehetséges apokaliptikus forgatókönyvet eredményezhet majd.
Lassítani akkor sem fognak
A cikk alapján többen is megerősítették, hogy az OpenAI egyik legfontosabb munkatársa (aki már hónapokkal a ChatGPT 2022-es megjelenése előtt azt állította, hogy egyes MI-modellek "kissé tudatosan" viselkednek) tényleg egy bunkert emlegetett, hozzátéve, hogy Sutskever megszállottsága 2023 nyarát követően új irányt vett. A tudós aggódni kezdett amiatt, ahogy az OpenAI az általa épített technológiát kezeli, és végül a vállalat igazgatótanácsának más tagjaival együtt elérte Altman menesztését. A puccs azonban nem volt hosszú életű, miután az OpenAI dolgozói inkább Altman mögött sorakoztak fel, és Sutskever is visszavonta a vezérigazgató alkalmatlanságáról szóló véleményét.
Ez a beszámolók szerint már csak sikertelen kísérlet volt, hogy mentse a bőrét, és Sutskever lett az, aki elhagyta az OpenAI-t. A tudós azonban maradt a kaptafánál, és továbbra is az AGI létrehozásán fáradozik – bár ezúttal már olyan formában, hogy az ne szabadíthassa ránk a a világvégét. Ehhez már tavaly szeptemberre egymilliárd dollárnyi befektetést szedett össze alig néhány hónapja működő MI-cége, a Safe Superintelligence támogatására. A The Atlantic sztorija mindenesetre ismét rávilágít, hogy jobban járnánk, ha nagyon messze lennénk még az AGI születésétől, mert a fejlesztéseket tényleg olyan emberek erőltetik, akik közben maguk is tartanak pusztító következményektől.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak