A Claude modelleket fejlesztő Anthropic október közepén tette közzé Responsible Scaling Policy (RSP) szabályozásának új kiadását, ami frissítéseket tartalmazott az egy évvel korábbi anyaghoz képest. A társaság nyilvános kötelezettségvállalását a biztonságos, megfelelő kockázati intézkedések mellett felépített modellek bevezetéséről most az elmúlt időszak tanulságaival egészítették ki, leszögezve többek között, hogy a gyorsan fejlődő technológiai területen a kockázatok felügyeletének arányosnak, iteratívnak és exportálhatónak kell lennie.
Egy október végi közleményben ismét felhívták a figyelmet az MI-rendszerek rizikójára, jól strukturált szabályozást sürgetve a lehetséges katasztrófák elkerülése érdekében. Ahogy a mesterséges intelligencia egyre látványosabban teljesít az olyan képességekben, mint a matematika, az érvelés vagy a kódolás, jelentősen megnő a visszaélések esélye is a kiberbiztonságtól egészen a vegyi, biológiai, radiológiai vagy nukleáris (CBRN) fenyegetettséggel járó helyzetekig. Az Anthropic szerint a következő 18 hónapban kritikus időszak vár a döntéshozókra, mert a proaktív megelőzés lehetősége egyre szűkül majd.
A társaság red teaming csapata a közleményben kiemeli, hogy a jelenlegi modellek már most is hozzájárulhatnak a különféle kiberbűncselekményekkel kapcsolatos feladatok végrehajtásához, a jövőbeni modellek pedig értelemszerűen még hatékonyabbak lesznek. Az AI News riportja ezzel kapcsolatban emlékezet rá, hogy az Egyesült Királyság MI-biztonsági intézete szerint már a mai mesterségesintelligencia-modellek között is van, ami PhD-szintű humán szakértelmet helyettesíthet egyes tudományos kérdésekben.
Rendre nagy szükség van, túlzott szigorra nincs szükség
Az Anthropic RSP a védelmi intézkedések erősítését is az MI-képességek kifinomultságának fejlődéséhez kötné, rendszeres értékelésekkel segítve a biztonsági protokollok időben történő áthangolását. A biztonság fenntartása és fokozása mellett a cég kötelezettséget vállal szervezeti működésének bővítésére is a védettséget, az értelmezhetőséget vagy a bizalom erősítését célozva, biztosítva ezzel is az RSP szigorú biztonsági szabványainak betartására való felkészültséget. Az Anthropic szerint a hasonló szabályok széles körű alkalmazása, bár egyelőre önkéntes, mégis elengedhetetlen lenne a teljes iparágban a kockázatok kezeléséhez.
A döntéshozókat a társaság olyan keretek kialakítására ösztönzi, amelyeket stratégiai megközelítéssel dolgoznak ki, szükségtelen plusz terhelés nélkül ösztönözve a megfelelő biztonsági gyakorlatokat. Az Egyesült Államokra nézve a szövetségi jogszabályokban látják a végső választ a mesterséges intelligencia veszélyeinek visszaszorítására, de a világ más országainak is közös jogszabályi környezetet kellene teremteniük a szabványosításra és a kölcsönös elismerésre törekedve, egyben minimálisra csökkentve a szabályozás betartásának költségeit is a különböző régiókban.
A választás után kiderült, hogy senki sem tud semmit
Az amerikai elnökválasztás eredményét tekintve külön érdekes, hogy az Anthropic kitár az előírásokkal szembeni szkepticizmusra. A túlságosan tág, felhasználási esetekre összpontosító szabályozást nem tartja hatékonynak, tekintve, hogy az általános mesterségesintelligencia-rendszereknek végtelen sok alkalmazása van. Ehelyett a vállalat azt javasolja, hogy az MI-modellek alapvető tulajdonságaira és biztonsági intézkedéseire koncentráljanak, ösztönzve az innovációt is. A megfelelés kezdeti terheit elkerülhetetlennek, ugyanakkor minimalizálhatónak tartják rugalmas és gondosan megtervezett biztonsági teszteken keresztül.
Ahogy az első beszámolókból kiderül, Donald Trump meglehetősen kitágítja a mesterséges intelligencia szabályozásának jövőjét az országban. Az Egyesült Államok következő elnöke nem csak azt ígérte meg, hogy hatályon kívül helyezi a Joe Biden által majdnem pontosan egy évvel ezelőtt aláírt rendeletet a mesterséges intelligencia ellenőrzéséről, hanem a big tech vállalatokhoz való viszonyát is egyelőre csak találgatják.
A konzervatív oldalon sok kritika érte a Biden-adminisztráció rendelkezését azzal kapcsolatban, hogy a nagy MI-modelleket fejlesztő vállalatoknak meg kell osztaniuk a red teaming teszteredményeket a szövetségi kormányzattal, azt pedig egyenesen radikális balos eszmeiségnek nevezték, hogy a nemzeti szabványügyi hatóság útmutatásokat ad ki a modellek elfogultságtól mentes működésére. Másfelől ott vannak Trump kampányának olyan szponzorai, mint Elon Musk, akik sokat nyerhetnek egy lazább szabályozással, ami lehetővé tenné, hogy saját vállalkozásaik behozzák a legnagyobb technológiai versenytársakkal szemben meglévő hátrányukat.
Tágabb értelemben is sokan valószínűsítik, hogy az új ciklusban a technológiai ipar további deregulációjára kerül majd sor, például a kriptovaluta-biznisz esetében, amelynek Donald Trump hangos kritikusából lett lelkes támogatója. Egyelőre mégsem világos, hogy a nagy technológiai monopóliumok mire számíthatnak. Az amerikai versenyfelügyelet (FTC) még Trump első hivatali ideje alatt indított eljárásokat a big tech vállalatok ellen, amelyeket később még több hasonló ügy követett. És igaz ugyan, hogy a leendő amerikai elnök a közelmúltban szkeptikusan beszélt a Google keresőmonopóliumának megtörésére irányuló kormányzati lépésekről, jövőbeli alelnöke, J.D. Vance éppenséggel támogatja az FTC trösztellenes hadjáratát.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak