Amikor a technológiáról van szó, a jogi szabályozás rendre késésben van. Ez a lemaradás a mesterséges intelligencia (MI) esetében tűnik a legdrámaibbnak. Amióta megjelent a ChatGPT, olyan tempóban jönnek az újabbnál újabb megoldások és fejlődési fokok, hogy az államok is csak kapkodnak, hogy visszaszerezzék az irányítást. Bár az EU és az USA is dolgozik a saját szabályozásán, egyre nyilvánvalóbb, hogy itt csak nemzetközi összefogás segíthet, hogy mederbe lehessen terelni az MI-fejlesztéseket.
A világ legfejlettebb országait tömörítő G7 technológiai területekért felelős miniszterei a hétvégén Japánban megállapodtak azokban az alapelvekben, melyek mentén a lehető leggyorsabban kidolgoznak egy átfogó szabályozást.
Ellenőrzés alatt tartani, de nem akadályozni
A Nikkei beszámolója szerint a miniszterek az elfogultságot, a félretájékoztatást, a szerzői jogok megsértését azonosították konkrét problémának, bár a tanácskozás zárónyilatkozatában utalnak egyéb káros hatásokra is.
Ez alapján megállapodtak öt alapelvben, amely keretet kell adjon a mesterséges intelligencia és más fejlődő technológiák használatának: a jogállamiság érvényesülése, a megfelelő eljárások kialakítása, az innovációs lehetőségek kihasználása, a demokrácia védelme és az emberi jogok tiszteletben tartása. Ezeket az alapelveket nem csak a szabályozásban akarják érvényesíteni, hanem létrehoznak olyan egységes szabványokat is, melyek segítik az MI széles körű alkalmazását.
Olyan kockázatalapú szabványokra van szükség, melyek kellő teret engednek az innovációnak. A kockázatalapú megközelítés (bármilyen módosítás úgy hajtandó végre, hogy fel kell tárni annak lehetséges kockázatait és következményeit, és azok kezelésére előre fel kell készülni) régóta része az általános vállalati irányításnak. A G7-miniszterek szerint ez a megközelítés jobban segíti az innovációt, mintha az MI minden egyes alkalmazását külön szabályoznák.
A szabványokat úgy kell kialakítani, hogy azok biztosítsák az elfogulatlan tanulási adatkészletet, a technológia működésének transzparenciáját stb. Emellett előírnák az emberi felügyelet biztosítását, a magánélet védelmét biztosító adatfeldolgozást és a kiberbiztonságra vonatkozóan is lennének szabályok. A szabványok alapjainak lerakásában az OECD vezetése mellett több magánszervezet is bekapcsolódik majd.
És ha máshol van a probléma?
Amiben a G7-miniszterek megállapodtak, az valóban előremutató. A probléma csupán az, hogy az MI-fejlesztés olyan mértékben gyorsult fel, hogy akár 5-10 éven belül elkészülhet az önálló döntésre képes általános MI. Miközben a politikusok még az etikus MI-fejlesztés kereteit próbálják kialakítani, egyre több tudós csatlakozik az MI-apokalipszishívők táborához. Max Tegmark fizikaprofesszor, a MIT ismert és elismert MI-kutatója maga is ezt a tábort erősíti. A közelmúltban a Time magazinban írt arról, hogy mi vár ránk, ha nem sikerül időben biztonságos irányba fordítani az általános MI fejlesztését. (Akit érdekel az eredeti szöveg, a Time oldalán elolvashatja, de választhatja ezt az alapos, így hosszabb magyar összefoglalót, akinek még ennél is kevesebb az ideje, annak pár rövid bekezdésbe sűrítjük a lényeget.)
Tegmark szerint még a veszély mértéke sem tudatosult az emberiségben, ezért sokan azt is tagadják, hogy létrejöhet az önálló döntésre képes általános MI. A (mesterséges) intelligencia azonban nem alkímia: az információfeldolgozásról szól. Az másodlagos, írja Tegmark, hogy ezt az agy végzi vagy egy számítógép. Az információfeldolgozásban viszont az MI lépésről lépésre lesz jobb, és megelőzi az embert.
Ha elkészül az általános MI (Tegmark szerint döbbenetesen gyorsan, akár 5 éven belül is elérhetjük), onnan már csak maximum egy év a szuperintelligencia, mert az általános MI képes lesz még okosabb gépeket (hatékonyabb architektúrát) gyártani, és onnantól a fejlődésnek csak a fizikai törvények szabnak határt, nem az ember, amely már nem is kell majd a fejlődéshez.
Nem támad, csak máshogy dönt
A kutató cikke elején idéz egy felmérést (a 2022-es kutatási anyag itt érhető el), amely szerint a megkérdezett tudósok fele 10 százalék esélyt lát arra, hogy az MI irányíthatatlanná válik, és kiirtja az emberiséget. A veszély Tegmark szerint is valós, de hozzáteszi: ez nem azért fog bekövetkezni, mert egy gonosz szuperintelligencia jön létre. Még csak nem is lesz emberi értelemben tudatos, csupán hozzáértő (competent), amelynek a céljai eltérnek az emberétől. Például mindenképpen meg akarja óvni működőképességét, és ezért kivonja az oxigént a légkörből, hogy megakadályozza a fémek korrózióját.
A kutató szerint a legkárosabb, ha a problémát próbáljuk bagatelizálni. Igenis beszélni kell róla, hogy megtaláljuk az apokaliptikus vég elkerülésének módját.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak