A Google-t naggyá tevő csúcsmenedzser, Eric Schmidt az elnöke annak a tanácsadó testületnek, amely azt javasolja az Egyesült Államok döntéshozóinak, hogy ne ellenezze a mesterségesintelligencia-alapú autonóm fegyverek fejlesztését és használatát. Mint a Reuters beszámolója felhívja a figyelmet, a testület csak ajánlásokat fogalmaz meg a kongresszusnak írt jelentésében, amiket a politikusok vagy megfogadnak, vagy sem.
A kérdést annak kapcsán vizsgálták Schmidték, hogy az ENSZ az évtized közepétől folyamatosan napirenden tartja a témát. Harminc ország, köztük Brazília és Pakisztán is szorgalmazza, hogy a világszervezet próbálja elérni az MI hadi eszközként való alkalmazásának betiltását. Egyes országok mellett különböző szervezetek is ezért lobbiznak, mondván: a "gyilkos robotok" emberi kontroll nélküli alkalmazása nehézzé teszi például annak eldöntését, hogy az adott támadás arányos válasz volt-e pl. egy agresszióra, vagy a háborús felelősség megállapítását.
Ezek valós aggályok: az autonóm fegyverek már léteznek. A fegyvereket irányító mesterséges intelligenciáról pedig számos esetben bebizonyosodott: előítéletes, ha nem megfelelő adatokkal tanítják. Azaz a szoftverekkel vissza lehet élni, a mesterséges intelligencia betanításához előítéletes, elfogult adatokat is felhasználhatnak (Frész Ferenc, a Cyber Sevices vezérigazgatója lapunkban már két éve súlyos kockázatnak nevezte a mesterséges intelligenciával érkező új támadási faktort, az adattorzítást, amikor hamis adatokkal tanítják az MI-t, ami így rossz-hibás válaszokat ad).
Robert Work demokrata párti nemzetbiztonsági szakember, a testület alelnöke, aki Barack Obama második ciklusa alatt három évig védelmi miniszterhelyettes is volt, azzal érvelt, hogy az autonóm fegyverek kevesebbet hibáznak a csatatéren, mint az ember, és bevetésük kevesebb áldozattal is jár, ami az összecsapások számát is csökkentheti.
Hírszerzésre igen, atomfegyverekhez nem
A testület egy területen, a hírszerzésben, az adatgyűjtésben maximálisan elfogadhatónak tartja. Arra is felhívja azonban a figyelmet, hogy a kockázatok miatt a fejlesztéseket a korábbinál nagyobb körültekintéssel szabad csak folytatni, és erkölcsi követelményeket is ki kell dolgozni. És persze figyelni kell az ellenséges nagyhatalmakat (mindenekelőtt Kínát és Oroszországot), hogy milyen irányba haladnak a fejlesztéseikkel. A javaslat szerint egy területen a döntés semmiképpen sem szabad kiengedni az ember kezéből: nukleáris töltetű fegyverek bevetéséről kizárólag ember dönthet.
És hogy kik javasolják mindezt? A már említett Schmidt és Work mellett a 2019-ben alakított testület tagja többek között Safra Catz, az Oracle vezérigazgatója, Gilman Louie videojáték-tervező, befektető, aki korábban a CIA kockázati tőkebefektető cégét is vezette, Kenneth M. Ford neves gépitanulás-kutató, Eric Horvitz, a Microsoft tudományos igazgatója és az az Andrew Jassy is, aki hamarosan az Amazon vezérigazgatója lesz.
A testület eddigi javaslatai nem mindenkit győztek meg, sokak szerint az ajánlások újabb tápot adnak a fegyverkezési versenynek. A végső ajánláscsomag a tervek szerint márciusra készül el.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT A PROJEKTMENEDZSMENTRŐL TUDNI KELL!
Ütős esettanulmányok AI-ról, agilitásról, hibrid működésről, elosztott csapatokról, kulturális gapek kezeléséről. Exkluzív információk képzésekről, munkaerőpiacról, kereseti és karrierlehetőségekről.
2025.03.18. Symbol Budapest
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak