Az OpenAI még decemberben jelentette be, hogy 1 millió dollárral támogatja a Duke Egyetem kutatását, melynek során azt vizsgálják, hogy a mesterséges intelligencia hogyan lehet képes megjósolni az emberi erkölcsi ítéleteket. A Moral Attitudes and Decisions Lab (MADLAB) csoport Making Moral AI projektjében sokféle területet ölelnek fel a számítástechnikától a filozófián és a pszichológián át az idegtudományig, hogy megértsék, hogyan alakulnak ki az erkölcsi attitűdök és döntések: közleményük szerint egy "erkölcsi GPS", vagyis az etikus döntéshozatalt irányító eszköz megalkotását tűzték ki maguk elé.
Ez lényegében egy olyan algoritmus lenne, ami felmérheti az erkölcsi dilemmákat is, ha két kedvezőtlen eredmény között kell választani, vagy útmutatást adhat az etikus üzleti gyakorlatokhoz. A mesterséges intelligencia lehetőségeiről ugyanis bőven eleget hallani, de olyan alapvető kérdésekre még senki sem adott választ, mint hogy pontosan ki is határozza meg a hasonló folyamatokat irányító morális keretet, és egyáltalán be lehet-e vonni az MI-t az etikai vonatkozású döntések meghozatalába: lehetséges-e a dolgot technológiai szinten kezelni, vagy mindenképpen meg kell hagyni az emberek hatáskörében.
Nagyon szép tőlük, hogy foglalkoznak vele
A probléma meglehetősen fontosnak tűnik, különösen akkor, amikor az OpenAI folyamatosan égeti a befektetők pénzét, és az újabb források bevonásának érdekében már azzal haknizik, hogy megtalálta a mesterséges általános intelligencia (artificial general intelligence, AGI) felépítésének módját. Ehhez képest nem tűnik erős dolognak, hogy a MADLAB projektjét akkora összeggel támogatják, mint amekkorát valószínűleg évente elkávéznak a cég alkalmazottai, miközben a jelenlegi MI-rendszerek kiválóan teljesítenek ugyan a minták felismerésében, de képtelenek az etikus érveléshez szükséges megértésre.
Ahogy a beszámolók is kiemelik, a mesterséges intelligencia segíthet az életmentő döntésekben, de a védelmi stratégiákban vagy megfigyelésben való alkalmazása ugyancsak morális dilemmákat vet fel: az erkölcs eleve nem egyetemes, beágyazásának nehézségeit pedig az olyan kérdések is jelzik, mint hogy indokolhatók-e például az etikátlan MI-akciók a társadalmi célok vagy nemzeti érdekeket szolgálatában. Az átláthatóság és az elszámoltathatóság biztosítékai nélkül ráadásul fennáll a káros alkalmazások és a torzítások állandósulásának veszélye, ami éppenséggel az OpenAI technológiáját is vastagon érinti.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak