Egyelőre nincsenek jó eszközök a közösségi oldalakon megjelenő tartalmak moderálására, véli az amúgy moderáláspárti Yishan Wong, aki 2012 és 2014 között két és fél évig irányította a Redditet (a szakember a Twitteren tette közzé okfejtését). Már az is ennek a beismerése, hogy egyes platformok létrehoznak valamiféle "bölcsek tanácsát", amely vita esetén eldönti, hogy mi engedélyezett és mi tiltott (a Facebook például néhány éve ezzel próbálkozik).
Wong szerint viszont az ilyen testületek nem oldják meg a problémát. A tanács tagjait támadások (akár halálos fenyegetések) érik, minek hatására sorra távoznak. De a cég kitart, tehát felvesz újabb embereket, akik természetesen informálódnak elődeiktől, hogy miért távoztak, és hamarosan ők is mennek... A végén pedig létrejön egy olyan testület, amiben főleg politikai motivációjú tanácsadók dolgoznak, ami előrevetíti, hogy a helyzet rosszabb lesz, mint a moderálási bizottság felállítása előtt volt.
Nem megoldás az sem, ha a bölcsek tanácsa titkos, mert akkor eleve nem elszámoltatható döntései miatt. Azaz semmiféle hitele sincs a közösségi oldal felhasználói előtt. Ez pedig borítékolhatóan újabb kezelhetetlen vitákhoz vezet.
Nyelvi és kulturális problémák is felmerülnek
A volt Reddit-vezér szerint az egyik nagy probléma, hogy a közösségi oldalak globálisak, így nagyon sokféle nyelven jelennek meg rajtuk tartalmak, olyanokon is, melyeket nem ért egy moderátor sem. Ilyen esetben eleve csak a tartalomra vonatkozó metaadatok (pl. posztolási gyakoriság, felhasználók szokások stb.) alapján lehet szűrni.
Wong a szűrendő tartalmak három rétegét különbözteti meg: a spameket, a nem vitatott témákat (pl. kinek mi a kedvenc zenekara), valamint az ellentmondásos témákat (például politikával, vallásokkal vagy kultúrával kapcsolatos beszélgetések).
Már a spam megítélése sem egyértelmű. Mint írja, a spamek szűrése általánosan elfogadott, csakhogy a spamekben gyakran nincs semmiféle illegálisnak minősíthető tartalom. Többségük simán átmenne minden tartalmi szűrőn, hiszen nem fenyegetnek senkit, nem buzdítanak törvénysértésre stb. ("A pokolba is, az amerikai posta még a postaládába is kézbesíti a spameket" – horkan fel Wong, és ugyanez igaz lenne a magyar vagy bármely más postára is.)
De akkor miért fogadjuk el, hogy a szolgáltatók szűrik a spameket? Elvi oka nincs, csupán eredményalapú: javul a felhasználói élmény, a felhasználók jobban érzik magukat a platformon, amitől javul a hirdetések hatékonysága, azaz több lesz az adott közösségi platform bevétele.
A spameket egyébként viszonylag könnyű moderálni még a nyelv megértése nélkül is, akár gépi tanulási algoritmusokkal: jellemzői könnyen azonosíthatók a bejegyzések gyakorisága, ismétlődő jellege, a tartalom egyszerűsége stb. miatt. Szűrésük pedig kétségtelenül javítja a közösségi platformon megjelenő tartalmak jel-zaj arányát.
De mi történik, ha jön egy erősen csőlátású felhasználó, aki ugyanazt a véleményét azonos formában osztja minden olyan beszélgetésben, amely akár csak távolról is érinti az őt foglalkoztató problémát? A téma és a megfogalmazás nem szűrendő. Hatása mégis ugyanolyan, mint a spameké. Vajon ezt is moderálni kell? A platform érdeke nyilván a moderálás (csökkentendő a jel-zaj arányt) – miközben adott bejegyzés önmagában teljesen korrekt.
Mi az alapja az ellentmondásosnak minősülő tartalmak (politika, vallás stb.) moderálásának? Wong a Capitolium 2021-es lerohanását hozta fel példának. Mit gondol és oszt meg erről egy kínai felhasználó? Például hogy Amerikában káosz van. És egy orosz felhasználó? Elképzelhető, hogy örül az eseményeknek, és annak hangot is ad. Azaz a vélemények nagyon is kultúrafüggők, és nincs mérce arra, hogy melyik a helyesebb. Akkor most mi alapján enged egy platform egy véleményt megjelenni?
A témák minősítése organikusan és gyorsan változik
További probléma, hogy a nem vitatott témák egyik pillanatról a másikra átkerülhetnek a problémás kategóriába, ahogy például a pandémia alatt a maszkviseléssel vagy a védőoltásokkal kapcsolatos témákkal történt. Az ilyen változásokat nem lehet előre megjósolni, így előzetesen felételezésekből, sőt a múltbeli tapasztalatokból sem lehet generális moderálási szabályokat alkotni.
Azt pedig sem a mesterséges intelligencia, sem az emberi moderátorok nem tudják megjósolni, mikor válik egy téma problémássá, amely veszélyezteti a platform működését. Egyetlen dolgot tehetnek: folyamatosan figyelik, hogy a témával kapcsolatos felhasználói viselkedés problémássá válik-e.
Mint Wong írja, korábban elképzelt egy olyan rendszert, amelyben a felhasználó megkérdőjelezheti a moderátor döntését, de csak akkor, ha ahhoz is hozzájárul, hogy a platform egy esetleges jogi vita esetén minden rendelkezésére álló adatot nyilvánosságra hozzon, beleértve a platformon lévő privát tartalmait is. Egy ilyen rendszernek ugyan az adatvédelmi problémák miatt nincs realitása, de a volt Reddit-vezér szerint nagyban hozzájárulna ahhoz, hogy a moderációs döntések és folyamatok átláthatóbbá és a nagyközönség számára érthetőbbé váljanak.
A hibakeresés nem egyenlő az alkalmazásbiztonsággal
Építsünk olyan AppSec környezetet, amely csökkenti az alkalmazásfejlesztés kockázatait, de nem válik a gyors leszállítás akadályává!
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?