A gyűlöletbeszéd és az erőszakra buzdító tartalmak automatizált szűrésével kapcsolatban egyelőre köszönőviszonyban sincsenek egymással a Facebook állítólagos belső adatai, a társaság által közölt számok és a kutatók vagy jogvédők saját becslései. A vállalat szerint minden tőlük telhetőt megtesznek, mások szerint ez nagyon erős túlzás.

A Facebook már jó ideje használ automatizált megoldásokat a gyűlöletbeszéd vagy az erőszakra buzdító bejegyzések azonosítására és eltávolítására. A társaság saját átláthatósági jelentései szerint a mesterséges intelligencia bevetése egyre hatékonyabb ezen a területen, különsen a dolog preventív jellegére való tekintettel, vagyis amikor a rendszer még azelőtt blokkolva az ilyen tartalmak jelentős részét, hogy azt bárki láthatta és meg is oszthatta volna.

A közösségi hálózat legutóbb szeptemberben közölte, hogy ma már idősarányosan 15-ször több gyűlöletbeszédnek minősített bejegyzést és megosztást törölnek ahhoz képest, mint amire 2017-ben képesek voltak. A Facebook hivatalos blogján közzétett bejegyzés szerint az általa alkalmazott technológia 2019 óta arra is képes, hogy ugyanazt a fogalmat különböző nyelveken is értelmezze, ami a gépi tanulás segítségével egymást erősítő hatással van az egyes nyelvek feldolgozására.

Mások szerint azonban a szóban forgó technológia nem igazán működik. A The Wall Street Journal a Facebookal foglalkozó sorozatában olyan belső dokumentumokat ismertet, amelyek alapján a vállalat vezető mérnökei állítólag 2 százalékosra teszik az automatizált rendszerek megtekintés-arányos hozzájárulását az oldal felhasználási szabályait sértő, gyűlöletbeszédnek minősített tartalom azonosításában és eltávolításában. (A WSJ sorozatáról egyébként a Facebook azt állítja, hogy hemzseg az adatok szándékos félreértelmezésétől.)

A lap összeállításából viszont kiderül, hogy a Facebook alkalmazottainak egy másik csoportja is hasonló következtetésre jutott, amennyiben a közösségi hálózat mesterséges intelligenciája csak azokat a bejegyzéseket távolította el, amelyek a platformon a gyűlöletbeszéd 3-5 százalékát, az erőszakra vonatkozó szabályokat megsértő tartalomnak pedig csak 0,6 százalékát generálták. A WSJ sorozata ezzel olyan képet fest a vállalatról, mint amelyik a felhasználókra gyakorolt befolyásáért cserébe sok kártékony gyakorlat fölött huny szemet az Instagramot használó fiatal lányok mentális egészségétől a félretájékoztatásig, az embercsempészésig és a csoporton belüli erőszakig.

Egyelőre nyilatkozatpárbajjal kell beérnünk

Időközben megszólalt az idézett belső anyagokat kiszivárogtató korábbi Facebook-alkalmazott is, aki elmondta, hogy a cégnél töltött ideje alatt konfliktusokat tapasztalt a közjó és a társaság saját érdekei között, a cég pedig rendszeresen az utóbbi szerint optimalizálta működését, vagyis profitérdekeithelyezte más szempontok fölé. Szerinte a vállalatnál senki sem alapértelmezett módon rosszindulatú, de az egész elfuserált rendszer működése félresikerült ösztönzőkre épül.

A Facebook eközben azt hangsúlyozza, hogy folyamatosan jelentős fejlesztéseket eszközöl a káros tartalom terjesztésének megakadályozására, és valótlanságnak tartja, hogy ne tenne semmit az ilyen megosztások ellen, netán még ösztönözné is azokat. A társaság kitart azon állítása mellett, hogy a platformon a gyűlöletbeszéd és az erőszakos tartalom nagy részét a "szuperhatékony" AI még azelőtt blokkolja, hogy azokat a felhasználók láthatnák: a cég februári jelentésében például azt állította, hogy ez az észlelési arány 97 százalék felett van.

A polgárjogi szervezetek és a témával foglalkozó kutatók viszont szkeptikusak a Facebook által idézgetett statisztikákkal szemben. A közösségi platform saját adatai egyrészt nagyban különböznek a külső tanulmányokban megállapított értékektől, másrészt a vállalat nem is enged érdemi betekintést a rendszerek működésébe. A Business Insider vonatkozó cikkében a Color of Change jogvédő szervezet vezetője úgy fogalmaz, hogy a facebookos arányszámoknál sosem tiszta, hogy mi a számláló, mi a nevező, és egyáltalán hogyan kapták meg az adott értéket.

A Facebook egyik alelnöke a WSJ-nek nyilatkozva elmondta, hogy jóllehet a lap általa áttekintett dokumentumok nem voltak naprakészek, éppen az ilyen betekintések nyomán születtek meg a döntések a mesterséges intelligenciára épülő tartalmi moderálásról. Szerinte összességében fontosabb lenne azt vizsgálni, hogy milyen ütemben csökken a gyűlöletbeszéd felbukkanása a Facebook oldalain.

Közösség & HR

Harry Smithnek hívnak? Akkor buktad ezt a szoftvermérnöki állást!

A mesterséges intelligenciát használó toborzószoftverek állítólag nem szeretik az angolszász nevet viselő férfi jelölteket.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.