A Facebook múlt pénteken tette közzé soron következő átláthatóság jelentését (Community Standards Enforcement Report), amelyben a társaság különféle lebontásokban közöl statisztikát a hálózat felhasználási feltételeinek érvényesítéséről, és egy ideje már részleteiben is foglalkozik a szabályokat megsértő, akár pénzügyileg motivált vagy államilag szponzorált kezdeményezésekkel is a vizsgált időszakokban. A mostani anyag a július és szeptember közti három hónapról szól, és a benne szereplő – vagy éppen nem szereplő – adatok a november eleji amerikai elnökválasztás miatt különös figyelmet kaptak.
A Facebook szerint a legutóbbi negyedévben összesen 22,1 millió esetben léptek fel a gyűlöletbeszéd valamilyen megnyilvánulásának ítélt tartalmak ellen, szemben az április-júniusi 22,5 millió esettel. Ennél fontosabb azonban, hogy a Facebookon és az Instagramon ezúttal már az összes ilyen megjelenés 95 százalékát proaktív módon azonosították, vagyis még azelőtt eltávolították vagy megjelölték, hogy egy-egy felhasználó bejelentést tett volna velük kapcsolatban.
Ide tartoznak a felhasználói profilok felfüggesztései vagy az illetékes bejelentések is. Március 1-jétől november 3-ig 265 ezer bejegyzést töröltek közvetlenül az elnökválasztás szabálytalannak ítélt befolyásolására hivatkozva. Érdemes megjegyezni, hogy a fentiek értelmében az ilyen posztok vagy fiókok legnagyobb része sosem jelenik meg élesben, és a mesterséges intelligencával támogatott rendszer már a létrehozásukra irányuló kísérletek során kiszűri a visszásságokat.
A járvány a szűrőket is eltömítette
Az adatokból kiderül, hogy a Facebookon 10 ezer megtekintésből 10-11 esetben volt szó gyűlöletbeszédnek minősített tartalmakról, vagyis a felhasználók az egyes bejegyzéseket vagy megosztásokat olvasva 0,10-0,11 százalékos eséllyel futnak bele ilyen megnyilatkozásokba. Mindezt nem a posztok összeszámolásával, hanem egy véletlenszerű minta eléréseinek vizsgálatával hozzák ki, figyelembe véve, hogy bizonyos anyagok virális terjedését – más kérdés, hogy ezt az értékelés külső és a Facebooktól független forrásokból senki sem erősíthette meg.
A Facebook ez utóbbival kapcsolatban azt ígéri, hogy dolgozik egy ilyen irányú audit lehetővé tételén, amelynek lehetőségét valamikor jövőre teremtené majd meg. A közösségi hálózat az átláthatósági jelentések rendszeres publikálásával is rendszeres kritikát kap, mert sokak szerint az általa alkalmazott metrika nélkülözi azokat a fontos összefüggéseket, amelyek hiányában tényleges értékelést adhatna az oldal működéséről és teljesítményéről a felhasználási szabályok érvényesítésében.
Annak ellenére, hogy a Facebook eljárásai közel sem nevezhetők kielégítőnek, azt sem lehet elvitatni a szolgáltatótól, hogy a közelmúltban látványos erőfeszítéseket tett a helyzet javítására. Három évvel ezelőtt például a proaktív fellépések mostani, 95 százalékosnak mondott aránya még csak 24 százalékos volt; még 2019 utolsó negyedévében is csak 645 ezer megjelenést töröltek, szemben az idei harmadik negyedévre jelentett 6,5 millióval. Ezen belül is már külön kategóriát képviselnek a gyűlöletbeszédet terjesztő, szervezett csoportok, amelyekből 60 százalékkal többet hajítottak ki az oldalról ugyanebben az időszakban.
Érdemes megjegyezni, hogy a koronavírus-járvány ebben a tekintetben is különleges helyzetet hozott. A moderátorok nem férhettek hozzá bizonyos érzékenynek minősülő adatokhoz, a mesterséges intelligencia pedig ebben az esetben közel sem teljesített megfelelően – a blokkolt tartalom mennyiségének valamelyes csökkenése mellett ez derül ki abból a néhány nappal ezelőtt közzétett nyílt levélből is, amelyet 200 facebookos moderátor jegyez, és arra hívja fel a figyelmet, hogy ebben a felállásban bizonyos kártékony üzenetek simán átcsúsznak a hálózat szűrőin.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak