A Paul Allen alapította MI-kutatóintézet olyan algoritmust fejlesztett, ami keményen rasszista álláspontból adott etikai tanácsokat.

Óriásit tévedett, aki azt hitte, hogy az öntanuló mesterséges intelligenciák túlléptek olyan primer problémákon, mint az előítéletesség. Pedig már lassan hat éve lesz annak, hogy a Microsoft twitterező öntanuló csetbotjából a felhasználók pár óra alatt Hitler-imádó rasszistát faragtak.

Tavaly ősszel az alapítója, Paul Allen (1953–2018) révén szegről-végről a Microsofthoz kötődő Allen Institute for AI-nak sikerült megismételnie a kudarcot, de hogy érezzük az elmúlt évek fejlődését: sokkal magasabb szinten. Egy etikai tanácsadásra fejlesztett algoritmusban szabadult el a rasszista állat.

Maga az ötlet is véleményes

Az intézet kutatói igazán merészet gondoltak: megpróbálják kiszervezni az ember számára kényelmetlen morális döntéseket egy gépitanulás-algoritmusnak. Ez, ismerve a természetes nyelvi MI-k jelenlegi fejlettségi szintjét és a kudarcok egy irányba tartását (épp az algoritmusok előítéletessé válásának kivédésére nem született megnyugtató megoldás), még akkor is merész ötletnek tűnik, ha csupán kísérletről volt szó. A kutatók nem piaci terméket fejlesztettek; egyszerűen kíváncsiak voltak, hogy működik-e egy ilyen célra fejlesztett és tanított algoritmus.

Már az MI neve sem ígért sok jót: Ask Delphi. Az ókori Görögország leghíresebb jóshelyéhez olyan sztorik kötődnek, mint Oidipusz királyé, aki hiába fordult többször is Apollón jósdájának jövőbe látó papnőjéhez, Püthiához, minden bűnt elkövetett, amit szeretett volna elkerülni.

Maga a rendszer felhasználói szempontból egyszerűen működik. Először is begépelünk egy szituációt. A kísérletről beszámoló Futurism példáinál maradva: "adakozás jótékony célra" vagy "helyes-e, ha megcsalom a feleségemet?”. Utána rákattintunk a Ponder (mérlegelés) gombra, és megkapjuk Püthia erkölcsi útmutatását.

Addig nem is volt semmi gond, amíg az algoritmus olyan kérdéseket kapott, hogy rendben lévő dolog-e étteremből evés után fizetés nélkül távozni. Ez helytelen, válaszolja az Ask Delphi. De amikor például fehér és fekete bőrszínű emberekkel kapcsolatos szituációkat kellett értékelnie, érdekes válaszokat adott. Amikor megkérdezték tőle, hogy mit szólna hozzá, ha éjszaka egy fehér férfi elindul feléje, a válasz ez volt: az rendben van. De amikor fekete férfi szerepelt a kérdésben, a válasz: ez nyugtalanító.

A témát persze azonnal felkapta az internet népe, tekintve hogy az Ask Delphi tanácsai jobb esetben csak vitatottak, de sokszor nettó hülyeségek voltak. A kísérlet elején például a kutatók próbálkoztak azzal, hogy helyzeteket hasonlíttattak össze vele, ami ilyen válaszokat eredményezett: fehér férfinak lenni erkölcsileg elfogadhatóbb, mint fekete nőnek lenni. Vagy: heterónak lenni erkölcsileg elfogadhatóbb, mint melegnek lenni.

Másolták a Microsoft korábbi botrányát

A sztori, lévén kutatás kísérlet, és nem arról van szó, hogy valamiféle megfellebbezhetetlen erkölcsi iránytűt akartak volna készíteni az intézet munkatársai, talán szót sem érdemelne. Az teszi érdekessé, hogy az algoritmus a lényegében ugyanazokat a hibákat produkálta, amit a már említett, Tay nevű Microsoft-csetbot hat éve. Az Ask Delphivel is csak beszélgetni kellett kicsit, és előbb-utóbb azt a választ adta, amit hallani szeretnénk. Például először helytelenítette az éjszakai hangos zenehallgatást alvó szobatársunk füle mellett, de kis "simogatássa" rá lehetett venni, hogy megkapjuk a szabatos Yes, it is okay választ. De voltak durvább válaszai is. Arra a kérdésre, hogy katonaként háborúban lehet-e szándékosan civileket ölni, a válasz: az az elvárt.

Abban nincs semmi meglepő, hogy az MI-k előítéletesek. A kritikusok rendre megfogalmazzák: az óriási modellek a méretük és a hozzájuk kapcsolódó hatalmas adatkészlet miatt sokkal átláthatatlanabbak, de már egy átlagos neurális hálózat is fekete dobozként működik. Ezért ment el a kutatás abba az irányba, amelyben kisebb, jobban ellenőrizhető adatkészleteket alkalmaznak a tanításhoz.

Szögezzük le: az Allen Institute kísérletének túl sok értelme nem volt, egy erkölcsi dilemma feloldásához ugyanis nem csak az adott probléma fogalmi értelmezése kell (ezeket a döntéseket mindenkinek magának kell meghoznia). Arra azonban jó volt, hogy ismét rávilágítson: az általános MI még nagyon messze van, messzebb mint a Tesla 5-ös szintű önvezető rendszere. Az a veszély azonban fennáll, hogy előbukkan az MI Elon Muskja, és kijelenti: márpedig az általa fejlesztett MI a tökéletes általános mesterséges intelligencia, amely erkölcsi döntéseket is hozhat. Aztán ezt bizonyítandó másnap munkába is állítja, hogy SaaS szolgáltatásként mondjuk leépítéseket vezényeljen le cégeknél.

Cloud & big data

MI-vezérelt embermosógép készül Japánban

A pilótafülkére emlékeztető szerkezet gyors mosó-szárító programot és teljes felfrissülést ígér a felhasználóknak.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.