A múlt héten komoly sikert ért el egy a Google falain belülről indított kezdeményezés. A cég több mint 4000 munkavállalója írta alá azt a petíciót, amely a védelmi minisztériummal folytatott közös projekt beszüntetését tűzte zászlajára. A vezetőség múlt héten úgy döntött, meghajlik a közös akarat előtt, és nem hosszabbítja meg a jövő márciusban lejáró együttműködést. Az eset hullámai azonban még most sem ültek el, hiszen tegnap a Google vezetője egy olyan blogbejegyzést tett közzé, amellyel tisztázni kívánja a cég hozzáállását a mesterséges intelligenciához (MI).
Szociális érzékenység, önmérséklet, biztonság
Sundar Pichai a bevezetőben megemlíti, hogy milyen sokrétűen képes a technológiai jó irányban befolyásolni az életünket. Való igaz, a mezőgazdaságtól az egészségügyön át az oktatásig bezárólag számos alkalmazását látjuk már megjelenni a mesterséges intelligenciának és az öntanuló rendszereknek. A Google vezetője ugyanakkor elismeri, hogy ezek a most formálódó új utak egyben veszélyeket és kockázatokat is rejtenek, ráadásul a téma etikai és jogi helyzetének tisztázását sem ússza meg a világ. Pichai azt ígéri, hogy cége mindehhez a kellő érzékenységgel és körültekintéssel viszonyul, miközben folyamatosan igyekeznek párbeszédet folytatni a témáról, hogy ezek alapján a szükséges következtetéseket levonhassák és alakíthassanak a folyamataikon.
A dekrétumnak is felfogható írás hét pont köré gyűjti a legfontosabb alapelveket. A Google többek között fontosnak tartja kiemelni, hogy a fejlesztéseknél alapvetően azt kell mérlegelni, hogy a közösség számára összességében lényegesen nagyobbak legyenek az előnyök, mint a bevezetéshez kötődő esetleges kockázatok és negatív hatások. A cég szeretné elkerülni, hogy rendszereibe kódolva legyen bármiféle jogtalan előítélet, mint ahogy igyekeznek a tesztelési metódust is úgy kialakítani, hogy az a lehető legnagyobb pontossággal legyen képes kiszűrni az esetleges rizikófaktorokat.
A pontok közé tartozik még az átláthatóság, az ellenőrizhetőség és a visszacsatolás lehetőségének a beépítése. A vállalat a saját adatvédelmi elveinek maximális betartásával összhangban gondoskodik arról, hogy az érintetteket megfelelően tájékoztassa arról, mi és milyen felhatalmazással történik a személyes adatokkal. A cég nyitottságát hangsúlyozza az a rész, amelyik a tudományos eredmények publikálását, megosztását ígéri.
Végezetül van egy sor olyan tétel is, amelyek azt tisztázzák, mire nem akarja felhasználni a mesterséges intelligenciát a vállalat. Ezek között felbukkan a bevezetőben említett katonai szál is. Ezek alapján a Google nem támogatja elsődlegesen emberek elleni károkozásra tervezett rendszerek fejlesztését, sem olyan technológiát, ahol az adatokat a nemzetközi normákkal ellentétes módon gyűjték és használják fel. Szintén a nem kategóriába esnek azok az esetek, amikor egy projekt a széleskörben elfogadott nemzetközi jogot vagy az emberi jogokat sértené meg.
Kétségek és kiskapuk
A bejegyzés meglehetősen vegyes fogadtatásban részesült. A témával kapcsolatban a Bloomberg által szóra bírt belső munkatársak között volt olyan, aki megfelelő első lépésnek értékelte, de olyan is, aki szerint az egész dokumentum túlságosan visszafogott és a megfogalmazása is tág teret ad az értelmezésre. Utóbbival kapcsolatban több szakértőnek is akadt gondja. Például az, hogy nem támogatnak emberi életeket közvetlenül veszélyeztető fejlesztést önmagában nem zárja ki például azt, hogy a vállalat kibertámadások, vagy emberek által nem használt épületek, létesítmények elleni támadás kivitelezésében segédkezzen.
A Google vezetője egyébként a cikkében sem titkolta, hogy mindez nem jelenti a katonai együttműködések teljes beszüntetését. Reményei szerint a cég továbbra is hasznos partnere marad a védelmi intézményeknek például a kiberbiztonság, kiképzés területén, de ugyanígy az asztalon marad az egészségügyi kezelések témája, vagy éppen a kutatást, mentést segítő fejlesztések.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak