"Azt hiszem, hogy nem állunk még készen, azt hiszem, hogy nem tudjuk, mit csinálunk, és azt hiszem, hogy mindannyian meghalunk" - foglalta össze mesterséges intelligenciával kapcsolatos nézeteit Eliezer Yudkowsky a Bloomberg AI IRL sorozatának múlt heti epizódjában. Az amerikai MI-teoretikus, aki döntéselmélettel és etikával foglalkozó művei mellett a "barátságos mesterséges intelligenciával" kapcsolatos ötleteiről ismert, szélsőséges és egyesek szerint provokatív álláspontot képvisel, amelynek értelmében az MI fejlesztésének elkerülhetetlen eredménye lenne az emberiség kihalása.
A vészterhes jóslatok egyre divatosabbá válnak az iparág fejlődésével, és újabban már az iparág üzleti és szakmai vezetői közül is voltak, akik például ideiglenes moratóriumra szólítottak fel az OpenAI ChatGPT-jét működtető legújabb modell, a GPT-4 képességein túlmutató kutatásokban. Yudkowsky viszont azok közé tartozik, akik évtizedek óta képviselnek ehhez hasonló álláspontot, most pedig megerősíti, hogy "nagyjából fogalmunk sincs, mi történik a GPT-4-ben. Szerinte vannak elméleteink, de nem tudjuk érdemben vizsgálni a törtszámok hatalmas mátrixait, a velük végzett műveleteket és azok jelentését.
Nem mindegy, hogy miért vészmadárkodik valaki
A Futurism beszámolója ezzel kapcsolatban Sasha Luccionit, a Hugging Face kutatóját is idézi, aki úgy látja, az ilyen figyelmeztetések ma már dominálják a mesterséges intelligenciáról szóló diskurzust, és az érdekelt cégek is csak olajat öntenek a tűzre, hogy kibújjanak felelősségk alól. Ugyanis az egzisztenciális kockázatok lebegtetése elvonja a figyelmet a fejlesztők elszámoltathatóságáról az MI közvetlenebb, de viszonylag hétköznapi következményeit illetően. Ez aktuálisan olyasmit jelent, mint az ipari szintű plágium, az emberi munkahelyek elvesztése vagy a technológia hatalmas környezeti lábnyoma.
Erre természetesen az OpenAI vezérigazgatója, Sam Altman a kézenfekvő példa, aki saját bevallása szerint is fegyverek, gázmaszkok, gyógyszerek és akkumulátorok felhalmozásával készül egy világvégeszerű eseményre, és egyfolytában az MI veszélyeire figyelmeztet, miközben már dollármilliárdokért tapossa a gázt a GPT-4 fejlesztésében. Yudkowsky ezzel szemben olyan mechanizmusok tervezését javasolja, amelyek a kezdetektől fogva "barátságosra" tervezett rendszereket segédfunkciókkal látják el, figyelembe véve a tervezők tévedhetőségét és a kiegyensúlyozva a modellek tanulásával járó változásokat is.
A teljes beszélgetés a Bloomberg Originals csatornáján tekinthető meg »
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak