A gyűlöletbeszéd és az erőszakra buzdító tartalmak automatizált szűrésével kapcsolatban egyelőre köszönőviszonyban sincsenek egymással a Facebook állítólagos belső adatai, a társaság által közölt számok és a kutatók vagy jogvédők saját becslései. A vállalat szerint minden tőlük telhetőt megtesznek, mások szerint ez nagyon erős túlzás.

A Facebook már jó ideje használ automatizált megoldásokat a gyűlöletbeszéd vagy az erőszakra buzdító bejegyzések azonosítására és eltávolítására. A társaság saját átláthatósági jelentései szerint a mesterséges intelligencia bevetése egyre hatékonyabb ezen a területen, különsen a dolog preventív jellegére való tekintettel, vagyis amikor a rendszer még azelőtt blokkolva az ilyen tartalmak jelentős részét, hogy azt bárki láthatta és meg is oszthatta volna.

A közösségi hálózat legutóbb szeptemberben közölte, hogy ma már idősarányosan 15-ször több gyűlöletbeszédnek minősített bejegyzést és megosztást törölnek ahhoz képest, mint amire 2017-ben képesek voltak. A Facebook hivatalos blogján közzétett bejegyzés szerint az általa alkalmazott technológia 2019 óta arra is képes, hogy ugyanazt a fogalmat különböző nyelveken is értelmezze, ami a gépi tanulás segítségével egymást erősítő hatással van az egyes nyelvek feldolgozására.

Mások szerint azonban a szóban forgó technológia nem igazán működik. A The Wall Street Journal a Facebookal foglalkozó sorozatában olyan belső dokumentumokat ismertet, amelyek alapján a vállalat vezető mérnökei állítólag 2 százalékosra teszik az automatizált rendszerek megtekintés-arányos hozzájárulását az oldal felhasználási szabályait sértő, gyűlöletbeszédnek minősített tartalom azonosításában és eltávolításában. (A WSJ sorozatáról egyébként a Facebook azt állítja, hogy hemzseg az adatok szándékos félreértelmezésétől.)

A lap összeállításából viszont kiderül, hogy a Facebook alkalmazottainak egy másik csoportja is hasonló következtetésre jutott, amennyiben a közösségi hálózat mesterséges intelligenciája csak azokat a bejegyzéseket távolította el, amelyek a platformon a gyűlöletbeszéd 3-5 százalékát, az erőszakra vonatkozó szabályokat megsértő tartalomnak pedig csak 0,6 százalékát generálták. A WSJ sorozata ezzel olyan képet fest a vállalatról, mint amelyik a felhasználókra gyakorolt befolyásáért cserébe sok kártékony gyakorlat fölött huny szemet az Instagramot használó fiatal lányok mentális egészségétől a félretájékoztatásig, az embercsempészésig és a csoporton belüli erőszakig.

Egyelőre nyilatkozatpárbajjal kell beérnünk

Időközben megszólalt az idézett belső anyagokat kiszivárogtató korábbi Facebook-alkalmazott is, aki elmondta, hogy a cégnél töltött ideje alatt konfliktusokat tapasztalt a közjó és a társaság saját érdekei között, a cég pedig rendszeresen az utóbbi szerint optimalizálta működését, vagyis profitérdekeithelyezte más szempontok fölé. Szerinte a vállalatnál senki sem alapértelmezett módon rosszindulatú, de az egész elfuserált rendszer működése félresikerült ösztönzőkre épül.

A Facebook eközben azt hangsúlyozza, hogy folyamatosan jelentős fejlesztéseket eszközöl a káros tartalom terjesztésének megakadályozására, és valótlanságnak tartja, hogy ne tenne semmit az ilyen megosztások ellen, netán még ösztönözné is azokat. A társaság kitart azon állítása mellett, hogy a platformon a gyűlöletbeszéd és az erőszakos tartalom nagy részét a "szuperhatékony" AI még azelőtt blokkolja, hogy azokat a felhasználók láthatnák: a cég februári jelentésében például azt állította, hogy ez az észlelési arány 97 százalék felett van.

A polgárjogi szervezetek és a témával foglalkozó kutatók viszont szkeptikusak a Facebook által idézgetett statisztikákkal szemben. A közösségi platform saját adatai egyrészt nagyban különböznek a külső tanulmányokban megállapított értékektől, másrészt a vállalat nem is enged érdemi betekintést a rendszerek működésébe. A Business Insider vonatkozó cikkében a Color of Change jogvédő szervezet vezetője úgy fogalmaz, hogy a facebookos arányszámoknál sosem tiszta, hogy mi a számláló, mi a nevező, és egyáltalán hogyan kapták meg az adott értéket.

A Facebook egyik alelnöke a WSJ-nek nyilatkozva elmondta, hogy jóllehet a lap általa áttekintett dokumentumok nem voltak naprakészek, éppen az ilyen betekintések nyomán születtek meg a döntések a mesterséges intelligenciára épülő tartalmi moderálásról. Szerinte összességében fontosabb lenne azt vizsgálni, hogy milyen ütemben csökken a gyűlöletbeszéd felbukkanása a Facebook oldalain.

Közösség & HR

Kína a "digitális embereket" is tornasorba állítja

Az illetékes szabályozó hatóság legújabb tervezete már stratégiai tudományos problémának minősíti az MI-személyiségek szabályozását, ahol a megfelelő irányítást nem biztosíthatják önmagukban a kialakulóban lévő iparági normák.
 
Az új technológiák alapjaiban írják át az alkalmazásbiztonság szabályait. Most hatványozottan igaz, hogy szárazon kell tartani a puskaport.

a melléklet támogatója a Clico

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.