Az Anthropic már olyan szakembert is alkalmaz, aki azt kutatja, hogy képes lehet-e szenvedni egy MI-modell.

Akármilyen kimeríthetetlen témát jelentenek a mesterséges intelligencia kockázatai és a technológiával kapcsolatos etikai problémák, az Anthropic MI-fejlesztőnek így is sikerült mindenkit meglepnie: a vállalat október végén jelentette be egy olyan kutató alkalmazását, akinek a feladata "az MI jólétére" vonatkozó kérdések vizsgálata lesz. Az Anthropic szerint ide tartozik többek között annak a mérlegelése, hogy mitől lehet egy MI-rendszer "méltó az erkölcsi megfontolásokra", vagy a vállalatok milyen gyakorlati lépéseket tehetnek "az MI-rendszerek érdekeinek védelmében".

Bár az öntudatra ébredő mesterséges intelligencia lehetőségéről vagy a közvetlenül az MI-hez rendelt jogokról régóra zajlik a vita, az Anthropic megközelítése ilyen előzményekkel is érdekesnek tűnik. A szóban forgó szakember, Kyle Fish szerint érdemes azon gondolkodni, hogy egy új fajnak vagy lénynek is lehetnek erkölcsileg értelmezhető saját érdekei. Emellett ha komolyan vesszük azt a lehetőséget, hogy az MI-rendszerek egyszer veszélyt jelenthetnek ránk, akkor jó befektetésnek tűnik, ha "jól bánunk velük", mert úgy valószínűbb, hogy esetleg viszonozzák majd nekünk a szívességet.

Ez a megközelítés sokak szemében már első olvasatra is hülyeségnek (vagy legalábbis korainak) tűnik, de érdemes figyelembe venni, hogy sokan elkerülhetetlenül hinni kezdenek majd a mesterséges intelligencia tudatossá válásában. A London School of Economics professzora, Jonathan Birch szerint például már most is "aggasztó társadalmi megosztottság" tapasztalható azzal kapcsolatban, hogy az MI képes lehet-e érzésekre, a jövőben pedig "társadalmi törésekre" lehet számítani az MI-rendszereket tudatosnak gondoló és az ilyesminek még a lehetőségét is elvető emberek között.

Nem tűnik könnyen megoldhatónak

A Hugging Face vezérigazgatója, Clement Delangue ugyancsak arra számít, hogy már jövőre sor kerülhet az első jelentősebb nyilvános tiltakozásokra a mesterséges intelligencia vonatkozásában, ahogy egyre növekszik a frusztráció a plágium, a művészi szerzői jogok, vagy általában az MI által gerjesztett változások és bizonytalanság miatt. Ahogy a Business Insider hét eleji riportja is felhívja rá a figyelmet, a robotok jogairól szóló elmélkedés ebben a helyzetben darázsfészeknek bizonyulhat, hiszen még az emberi jogokról szólva sem mondhatjuk el, hogy ott már nincs több tennivalónk.

Ha az "MI-jólét" tényleg kutatási területté válik, akkor rögtön olyan kérdésekre kellene választ adni, mint egy gép gyilkosságra való utasítása, a gépek rasszizmusa, esetleg az olyan helyzetek, amikor a gép nem hajlandó elvégezni azokat az unalmas vagy veszélyes feladatokat, amelyekhez építették. A dolgot pedig bármeddig lehet fokozni olyan felvetésekkel, mint hogy mondjuk gyilkosságnak számít-e egy érző MI-ről készített digitális másolat törlése. Az emberek ugyanis jórészt egyetértenek abban, hogy ha valami képes a tudatos cselekvésre, akkor annak szükségszerűen jogai is vannak.

Egy ugyancsak ősszel közölt tanulmány, melynek Kyle Fish is a társszerzője, megállapította, hogy a gépi tanuló algoritmusok jó úton haladnak "a tudatossággal és cselekvőképességgel összefüggő számítási jellemzők" elérése felé. Eközben azonban még arról sincs megegyezés, hogy mit jelent, pláne hogyan mérhető az öntudat. Erre az állatok jólétére vonatkozó szabályozásokat szokták felhozni példaként, hiszen azt nagyjából mindenki elfogadja, hogy a polipok fejlettebb értelmi és érzelmi szinten állnak az osztrigákhoz képest, de ez még kevés az MI tudatosságának pontos értékelésére.

Fel sem merül, hogy ők lassítsanak

Az állatok jogainak rendezése azért is jó párhuzam, mert a módszartantól függetlenül igaz, hogy a disznók a kutyákhoz hasonló képességeik ellenére ritkábban alhatnak a gazdájuk ágyában, viszont gyakrabban végzik a fazékban. Ez pedig nem sok jót vetít előre azzal kapcsolatban, hogy a kutatók szerint az MI-rendszerek említett "számítási kognitív jellemzőinek" fejlődése miatt 10-20 év múlva már elkerülhetetlenné válhatnak az ilyen viták. És az sem segít, amikor Fish elképzelhetőnek nevezi, hogy az "MI-jólét" kérdése nemsokára a klímaváltozásnál vagy az egészségügynél is fontosabbá válhat.

A Business Insider szerencsére a kimerítő beszámolóban sem felejti el hangsúlyozni, hogy a mesterséges intelligencia jólétével is megint ugyanazok foglalkoznak, akik közben folyamatos figyelmeztetéseket adnak a technológia egzisztenciális kockázatairól. A lap a stanfordi Orvosbiológiai Etikai Központ munkatársát idézi, aki eleve paradoxonnak tartja, hogy ha az MI még a támogatók szerint is az emberek tehermentesítését szolgálja, akkor hogyan lehetne erkölcstelen megsérteni. Más szóval, ha a gép azért hasznosjó, mert nem fárad el, nem kell ennie és nem érez, akkor miért kellene jogokkal felruházni?

Az ilyen aggodalmakat Mildred Cho azért is érdekesnek látja, mert egy olyan helyzetben merülnek fel, amikor a mesterséges intelligencia már most, a jelenben is sok esetben lábbal tiporja az emberek jogait: az MI kiforgatja a szellemi tulajdont, egészségügyi ellátásról dönt, befolyásolja a (félre)tájékoztatást vagy harci drónokat irányít. Így a tudós szerint az Anthropic és más cégek először az emberek jogait próbálhatnák meg komolyan venni, mielőtt az MI jogaival kezdenek foglalkozni. Az "erkölcsi egyenletben" pedig meg kellene jelennie az MI-fejlesztők felelősségének is, akiknek a jelek szerint eszükbe sem jut, hogy ha a gépek nem megfelelően működnek, akkor esetleg ki is lehet kapcsolni azokat.

Piaci hírek

A Salesforce, a mesterséges intelligencia és Donald Trump

Bármely amerikai cég bármit fejleszt, szinte biztosan előkerül a mesterséges intelligencia és a leendő amerikai elnök neve. Utóbbival kapcsolatban a Salesforce vezetője némi kapszaicint is kevert egy nyilatkozatába.
 
Hirdetés

Felhőbe vezető út hazai szakértelemmel

Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.

A szoftveresen definiált WAN hálózatok kiépítése jóval komplexebb feladat egy hagyományos hálózati fejlesztésnél.

a melléklet támogatója a Yettel

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.