A Facebook már jó ideje használ automatizált megoldásokat a gyűlöletbeszéd vagy az erőszakra buzdító bejegyzések azonosítására és eltávolítására. A társaság saját átláthatósági jelentései szerint a mesterséges intelligencia bevetése egyre hatékonyabb ezen a területen, különsen a dolog preventív jellegére való tekintettel, vagyis amikor a rendszer még azelőtt blokkolva az ilyen tartalmak jelentős részét, hogy azt bárki láthatta és meg is oszthatta volna.
A közösségi hálózat legutóbb szeptemberben közölte, hogy ma már idősarányosan 15-ször több gyűlöletbeszédnek minősített bejegyzést és megosztást törölnek ahhoz képest, mint amire 2017-ben képesek voltak. A Facebook hivatalos blogján közzétett bejegyzés szerint az általa alkalmazott technológia 2019 óta arra is képes, hogy ugyanazt a fogalmat különböző nyelveken is értelmezze, ami a gépi tanulás segítségével egymást erősítő hatással van az egyes nyelvek feldolgozására.
Mások szerint azonban a szóban forgó technológia nem igazán működik. A The Wall Street Journal a Facebookal foglalkozó sorozatában olyan belső dokumentumokat ismertet, amelyek alapján a vállalat vezető mérnökei állítólag 2 százalékosra teszik az automatizált rendszerek megtekintés-arányos hozzájárulását az oldal felhasználási szabályait sértő, gyűlöletbeszédnek minősített tartalom azonosításában és eltávolításában. (A WSJ sorozatáról egyébként a Facebook azt állítja, hogy hemzseg az adatok szándékos félreértelmezésétől.)
A lap összeállításából viszont kiderül, hogy a Facebook alkalmazottainak egy másik csoportja is hasonló következtetésre jutott, amennyiben a közösségi hálózat mesterséges intelligenciája csak azokat a bejegyzéseket távolította el, amelyek a platformon a gyűlöletbeszéd 3-5 százalékát, az erőszakra vonatkozó szabályokat megsértő tartalomnak pedig csak 0,6 százalékát generálták. A WSJ sorozata ezzel olyan képet fest a vállalatról, mint amelyik a felhasználókra gyakorolt befolyásáért cserébe sok kártékony gyakorlat fölött huny szemet az Instagramot használó fiatal lányok mentális egészségétől a félretájékoztatásig, az embercsempészésig és a csoporton belüli erőszakig.
Egyelőre nyilatkozatpárbajjal kell beérnünk
Időközben megszólalt az idézett belső anyagokat kiszivárogtató korábbi Facebook-alkalmazott is, aki elmondta, hogy a cégnél töltött ideje alatt konfliktusokat tapasztalt a közjó és a társaság saját érdekei között, a cég pedig rendszeresen az utóbbi szerint optimalizálta működését, vagyis profitérdekeithelyezte más szempontok fölé. Szerinte a vállalatnál senki sem alapértelmezett módon rosszindulatú, de az egész elfuserált rendszer működése félresikerült ösztönzőkre épül.
A Facebook eközben azt hangsúlyozza, hogy folyamatosan jelentős fejlesztéseket eszközöl a káros tartalom terjesztésének megakadályozására, és valótlanságnak tartja, hogy ne tenne semmit az ilyen megosztások ellen, netán még ösztönözné is azokat. A társaság kitart azon állítása mellett, hogy a platformon a gyűlöletbeszéd és az erőszakos tartalom nagy részét a "szuperhatékony" AI még azelőtt blokkolja, hogy azokat a felhasználók láthatnák: a cég februári jelentésében például azt állította, hogy ez az észlelési arány 97 százalék felett van.
A polgárjogi szervezetek és a témával foglalkozó kutatók viszont szkeptikusak a Facebook által idézgetett statisztikákkal szemben. A közösségi platform saját adatai egyrészt nagyban különböznek a külső tanulmányokban megállapított értékektől, másrészt a vállalat nem is enged érdemi betekintést a rendszerek működésébe. A Business Insider vonatkozó cikkében a Color of Change jogvédő szervezet vezetője úgy fogalmaz, hogy a facebookos arányszámoknál sosem tiszta, hogy mi a számláló, mi a nevező, és egyáltalán hogyan kapták meg az adott értéket.
A Facebook egyik alelnöke a WSJ-nek nyilatkozva elmondta, hogy jóllehet a lap általa áttekintett dokumentumok nem voltak naprakészek, éppen az ilyen betekintések nyomán születtek meg a döntések a mesterséges intelligenciára épülő tartalmi moderálásról. Szerinte összességében fontosabb lenne azt vizsgálni, hogy milyen ütemben csökken a gyűlöletbeszéd felbukkanása a Facebook oldalain.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak