Miután saját dolgozói is fellázadtak a katonai célú kutatások miatt, a Google visszakozott és deklarálta, milyen alapelvek mentén igyekszik kihasználni a mesterséges intelligenciában rejlő lehetőségeket.

A múlt héten komoly sikert ért el egy a Google falain belülről indított kezdeményezés. A cég több mint 4000 munkavállalója írta alá azt a petíciót, amely a védelmi minisztériummal folytatott közös projekt beszüntetését tűzte zászlajára. A vezetőség múlt héten úgy döntött, meghajlik a közös akarat előtt, és nem hosszabbítja meg a jövő márciusban lejáró együttműködést. Az eset hullámai azonban még most sem ültek el, hiszen tegnap a Google vezetője egy olyan blogbejegyzést tett közzé, amellyel tisztázni kívánja a cég hozzáállását a mesterséges intelligenciához (MI).

Szociális érzékenység, önmérséklet, biztonság

Sundar Pichai a bevezetőben megemlíti, hogy milyen sokrétűen képes a technológiai jó irányban befolyásolni az életünket. Való igaz, a mezőgazdaságtól az egészségügyön át az oktatásig bezárólag számos alkalmazását látjuk már megjelenni a mesterséges intelligenciának és az öntanuló rendszereknek. A Google vezetője ugyanakkor elismeri, hogy ezek a most formálódó új utak egyben veszélyeket és kockázatokat is rejtenek, ráadásul a téma etikai és jogi helyzetének tisztázását sem ússza meg a világ. Pichai azt ígéri, hogy cége mindehhez a kellő érzékenységgel és körültekintéssel viszonyul, miközben folyamatosan igyekeznek párbeszédet folytatni a témáról, hogy ezek alapján a szükséges következtetéseket levonhassák és alakíthassanak a folyamataikon.

A dekrétumnak is felfogható írás hét pont köré gyűjti a legfontosabb alapelveket. A Google többek között fontosnak tartja kiemelni, hogy a fejlesztéseknél alapvetően azt kell mérlegelni, hogy a közösség számára összességében lényegesen nagyobbak legyenek az előnyök, mint a bevezetéshez kötődő esetleges kockázatok és negatív hatások. A cég szeretné elkerülni, hogy rendszereibe kódolva legyen bármiféle jogtalan előítélet, mint ahogy igyekeznek a tesztelési metódust is úgy kialakítani, hogy az a lehető legnagyobb pontossággal legyen képes kiszűrni az esetleges rizikófaktorokat.

A pontok közé tartozik még az átláthatóság, az ellenőrizhetőség és a visszacsatolás lehetőségének a beépítése. A vállalat a saját adatvédelmi elveinek maximális betartásával összhangban gondoskodik arról, hogy az érintetteket megfelelően tájékoztassa arról, mi és milyen felhatalmazással történik a személyes adatokkal. A cég nyitottságát hangsúlyozza az a rész, amelyik a tudományos eredmények publikálását, megosztását ígéri.

Végezetül van egy sor olyan tétel is, amelyek azt tisztázzák, mire nem akarja felhasználni a mesterséges intelligenciát a vállalat. Ezek között felbukkan a bevezetőben említett katonai szál is. Ezek alapján a Google nem támogatja elsődlegesen emberek elleni károkozásra tervezett rendszerek fejlesztését, sem olyan technológiát, ahol az adatokat a nemzetközi normákkal ellentétes módon gyűjték és használják fel. Szintén a nem kategóriába esnek azok az esetek, amikor egy projekt a széleskörben elfogadott nemzetközi jogot vagy az emberi jogokat sértené meg.

Kétségek és kiskapuk

A bejegyzés meglehetősen vegyes fogadtatásban részesült. A témával kapcsolatban a Bloomberg által szóra bírt belső munkatársak között volt olyan, aki megfelelő első lépésnek értékelte, de olyan is, aki szerint az egész dokumentum túlságosan visszafogott és a megfogalmazása is tág teret ad az értelmezésre. Utóbbival kapcsolatban több szakértőnek is akadt gondja. Például az, hogy nem támogatnak emberi életeket közvetlenül veszélyeztető fejlesztést önmagában nem zárja ki például azt, hogy a vállalat kibertámadások, vagy emberek által nem használt épületek, létesítmények elleni támadás kivitelezésében segédkezzen.

A Google vezetője egyébként a cikkében sem titkolta, hogy mindez nem jelenti a katonai együttműködések teljes beszüntetését. Reményei szerint a cég továbbra is hasznos partnere marad a védelmi intézményeknek például a kiberbiztonság, kiképzés területén, de ugyanígy az asztalon marad az egészségügyi kezelések témája, vagy éppen a kutatást, mentést segítő fejlesztések.

Cloud & big data

Szakértők figyelmeztetnek: ne küldözgessünk chatbotoknak az orvosi leleteinket

Elon Musk arra biztatja az X közösségi oldal felhasználóit, hogy teszteljék saját egészségügyi felvételeiken a Grok MI-chatbot képelemző funkcióit, de ez nem mindenki szerint jó ötlet.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.