A mesterséges intelligencia számos felhasználásában merül fel a humán viselkedés és az erre jellemző interakciók gépi reprodukálása, vagyis az az igény, hogy az ember-gép kölcsönhatást minél hasonlatosabbá tegyék az emberi kommunikációhoz. Ezzel kapcsolatban persze javában zajlanak az etikai vagy jogi természetű viták, de a közvélekedésben és a fejlesztői gyakorlatban is az az álláspont tűnik elfogadottnak, hogy a felhasználói élmény (mondjuk egy chatbot vagy virtuális asszisztens esetében) annál jobb lesz, minél emberibb módon viselkednek a gépek.
Mindenkinek megvan a maga helye
A dolognak természetesen olyan vonatkozásai is vannak, amelyek kevésbé nyilvánvalóak, és éppen ezért kevesebb szó is esik róluk. A VentureBeat egyik cikkében most a Pypestream üzleti vezetője foglalta össze röviden, hogy ez a berögzülés miért fölösleges, és miért lehet sok esetben káros is. Az írásból visszaköszön az a szakemberek által gyakran hangoztatott tétel is, hogy a mesterséges intelligenciának nem helyettesítenie, hanem kiegészítenie kellene az emberi képességeket, mert az együttműködés akkor lesz igazán eredményes, ha mindenki azt csinálja, amiben ő a jobb.
Az alapvető felvetés az emberi természetből indul ki: ahogy hajlamosak vagyunk például személyiséggel felruházni a kedvenc tárgyainkat, vagy jó kedvre derülni a tükörre rajzolt szmájlitól, úgy az is valószínű, hogy a gépekkel való kommunikációnk is sokkal bensőségesebb lesz, ha a szóban forgó gépek reakcióiban emberi jegyeket fedezünk fel. A cikk még egy olyan brit kutatást is idéz, amely bebizonyította, hogy a szupermarketekben elhelyezett adománygyűjtő dobozokban másfélszer annyi pénz gyűlik össze, ha szemeket festnek a doboz oldalára.
Ez a koncepció már a virtuális asszisztensek világában is megjelent, léteznek a szemkontaktust kereső, mosolygó, sőt ásítani is képes avatárok. Az egésznek azonban nem világos a célja, már amennyiben többről van szó, mint a bedobált apró értékének másfélszeresére növeléséről. Már az is nyilvánvaló jogi kérdéseket vet fel, hogy az ilyen automatizált megoldások mennyiben célozzák a felhasználók támogatását, és mennyiben az átejtését, vagy szebben fogalmazva, az éberségük elaltatását. Ennél azonban a Pypestream szerint mélyebbre ható kérdések is felmerülnek.
Gem Géza bosszúja
Ilyen kérdés lehet, hogy az emberi viselkedés utánzása hamis elvárásokat ébreszt a felhasználókban. A piacot már most is elöntik a korlátozott képességű, jól behatárolt feladatokra alkalmas chatbotok. Ha ezek különösebb ok nélkül elkezdenek emberi gesztusokat alkalmazni, a másik fél óhatatlanul is elkezd majd elvárni tőlük mindent, amit egy embertől is elvárna, ez pedig hosszabb távon frusztrációhoz vezet. A VB írása itt a Microsoft Wordben régebben ismert, ugráló-kacsintgató gemkapocs-asszisztenst hozza fel, amely valószínűleg soha senkinek nem segített érdemben, de mindenki egy halálosan idegesítő kis élőlényként emlékszik rá.
A túlzásba vitt humanizálás másfelől a fejlesztőket is szükségtelenül állítja majd olyan kihívások elé, amelyeken nem biztos, hogy úrrá tudnak lenni. A felhasználói viselkedésére mindig jellemző volt, hogy nem feltétlenül rosszindulatból, de rögtön elkezdik próbálgatni az egyes alkalmazások határait, és megpróbálják valamilyen szélsőséges akcióval eltéríteni, lefagyasztani, kiakasztani azokat. Az ilyesmi jó vicc lehet mondjuk az Alexa esetében, de egy automatizált ügyfélszolgálati rendszer kapcsán már kevésbé célszerű az emberi viselkedés változatos leképzése.
Intelligenciáról szó sincs
Ahogy Bitport a májusi CIO Hungary konferenciáján Lévay György, az Infinite Biomedical Technologies kutatási menedzsere is felhívta rá a figyelmet: az MI valójában nem intelligens, csak tanítható. A rendszer emberi módon nem képes disztingválni és alkalmazkodni, nem beszélve azokról az esetekről, amikor a működését szándékosan próbálják félrevinni – ezért is van, hogy a legstabilabbnak látszó fejlesztések is nagyon könnyen összeomlanak a kísérleti környezeteken kívül, és a lehető legrosszabb forgatókönyvet kell valószínűsíteni már az éles üzem legelső pillanatától kezdve.
Még tovább vezet a nehézségek közé, hogy az emberi viselkedés pontos leképzése az emberi hiányosságok vagy hibák leképzését is jelentené. Az ügyfélszolgálat műfaja például már az ipari forradalom óta létezik, és az ügyfelek azóta folyamatosan panaszkodnak az őket kiszolgáló alkalmazottakra. A cél ennek alapján éppen a hiányosságok kiküszöbölése, nem pedig algoritmikus újraalkotása lenne. Más szóval, a Pypestream szerint a létező leghatékonyabb asszisztenseket kellene kifejleszteni, amelyek segítségével hamar meg lehet oldani a felmerülő problémákat. Ez minden bizonnyal az ügyfelek elvárásaival is jobban találkozna, akik elintézni szeretnék az ügyeiket, nem pedig csacsogni egy elbűvölő gépi ügyfélszolgálatossal
A cikk megállapítja, hogy a vállalati szegmensben gyűrűző trendet ideje lenne kissé a visszájára fordítani, és az ember-gép interakció tekintetében le kellene nyesegetni az automatizálással kapcsolatos elvárásokat. Ez azt is jelenti, hogy kerülendő az a fajta túlzott perszonifikáció, ami eltereli és összezavarja a felhasználókat a rendszerek valódi rendeltetéséhez képest. A mesterséges intelligenciában megvan az a lehetőség, hogy megváltoztassa az ember-gép interakciót, sőt új szintre emelje az amberi képességeket is, ehhez azonban magának az MI-nek egyáltalán nem szükséges emberi módon viselkednie.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak