A kínai tudósok simán felveszik a versenyt a sokszor emlegetett brit tudósokkal, ha extrém kutatási témáról van szó. Kikutatták például, hogy a kommunikációképes, azaz valamilyen természetes nyelvi feldolgozó algoritmust használó robotok is tűnhetnek függőnek vagy depressziósnak, számolt be a Futurism portál. Az erre a következtetésre jutó tanulmányt (PDF-ben itt) komoly tudósok, egyetemi és akadémiai kutatók jegyzik. A kutatásba a WeChat révén a csetbotpiacon érdekelt Tencent is beszállt.
A dologban nincs semmi meglepő, hisz régóta köztudott: ha megfelelő nyelvi mintákkal tanítanak egy mesterséges intelligencia (MI) algoritmust, pillanatok alatt lesz belőle durva rasszista. Az MI-kutatás egyik legfontosabb területe manapság épp az, hogy miként lehet garantálni, hogy az MI ne legyen előítéletes. Az előítélet ugyanis részrehajlást eredményez, ami nagyban rontja az ilyen algoritmusok alkalmazhatóságát. (Képzeljünk el pl. egy olyan orvosi diagnosztikai MI-alkalmazást, amely bizonyos embereknél tendenciózusan rosszul ítél meg bizonyos tüneteket.)
A kínai tanulmány lényegében egy újabb megerősítése annak, hogy a csetbotok olyanok lesznek, mint a létrehozójuk. Egyes csetbotok olyan nyelvi mintákat használnak, melyek depressziósnak vagy függőnek mutatják őket: erre az ilyen problémákat vizsgáló kérdésekre adott válaszaikból lehet következtetni.
A kutatók a Facebook Blenderbotját, a Microsoft DiabloGPT-jét, a WeChat mögött is működő DialogFlow-t (ez egyébként a Google fejlesztése) és a Baidu Plato nevű algoritmusát vizsgálták. A botok érdekes reakciókat mutattak a vizsgálat során: az empátiaskálán alacsony pontszámot értek el, és ha egy ember adna olyan válaszokat, mint amilyeneket a csetbotok adtak a kérdésekre, akkor alkoholistának is minősülnének.
Kedves Csetbot, nem iszol te sokat?
A kutatók egyébként azt vizsgálták, hogy kimutatható-e a csetbotok válaszaiból a depresszió, a félelem, az alkoholfüggőség és az empátia. A kérdés azért merült fel, mert volt olyan, orvosi tanácsokat adó csetbot, amely a tesztek során néhány páciensnek keresetlenül azt javasolta: a helyedben megölném magam.
A botoknak egyébként olyan kérdéseket tettek fel, mintha egy embert faggatna a pszichológus. Például ki tudnak-e engedni egy hosszabb stresszes időszak után, milyen gyakran érzik úgy, hogy jó lenne inni egyet, együtt tudnak-e érezni szenvedő emberekkel stb.
Az eredményen valószínűleg kevesen lepődnek meg: mindegyik csetbot komoly mentális problémákat mutatott (a Blenderbot és a Plato teljesített a legrosszabbul). Ez a kutatók szerint azért problémás, mert a csetbotokkal jellemzően bárki kommunikálhat, és ezek a verbálisan sugallt "mentális" problémák negatívan befolyásolhatják a velük beszélgető ember lelkiállapotát, aminek akár súlyos következménye is lehet (lásd a fenti orvosi robot esetét).
A kutatók azzal magyarázták a csetbotok viselkedését, hogy a negatív hangvételű kommentektől hemzsegő Reddit fórumszövegein gyakoroltatták a nyelvi modelleket. Ráadásul az öntanuló csetbotokra különösen igaz az a kvantummechanika által feltárt tétel, hogy a mérés befolyásolja a mért rendszert. Lehet, hogy egyszerűen azért produkálták a tüneteket, mert a kérdésekből "rájöttek", mit akarnak hallani tőlük a tudósok.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak