A Meta a múlt héten jelentett be lényeges változtatásokat tartalommoderálási szabályaiban és a szabályok érvényesítésére irányuló eljárásaiban. Ennek értelmében felfüggesztette tényellenőrző programját az Egyesült Államokban, az új bejegyzések ellenőrzésénél nem alkalmazza a korábbi irányelvek jelentős részét, ezen felül kinyírta saját sokszínűségi, méltányossági és befogadási (DEI) programját is. A dolog érdekessége, hogy a vállalat nemrégiben még győzelmi jelentéseket szórt a moderációs törekvések sikereiről, de Mark Zuckerberg vezérigazgató éppen Donald Trump elnöki beiktatásához közeledve ébredt rá, hogy "túl messzire mentek a félretájákoztatás elleni küzdelemben".
Mint ismeretes, a félretájékoztatás a 2010-es években vált szembetűnő problémává a közösségi médiában, a Meta (korábban Facebook) pedig olyan gépi tanuló rendszereket állított munkába, amelyek célja a dezinformáció és a kártékony, akár fizikailag is veszélyes megnyilvánulások proaktív azonosítása és gyors terjedésének korlátozása volt. A közösségi hálózatokkal foglalkozó Platformer kedden közölt jelentéséből azonban kiderül, hogy a vállalat leállította ezeket az álhír-követő rendszereket, bár azok kifejezetten eredményesen működtek: a lap által szemlézett belső dokumentumok alapján a Meta algoritmusai több mint 90 százalékos hatékonysággal korlátozták a félretájékoztatás virális terjedését.
A társaság ezt a témát nem erőltette a nyilvánosság előtt, de a Platformer felidézi a Meta nemrég kinevezett, közcélú szabályozásért felelős globális vezetőjének egy blogbejegyzését, amely szerint az eddigi biztonsági gyakorlatok túl sokszor minősítették le igazságtalanul a felhasználási szabályokat állítólagosan megsértő tartalmakat. Joel Kaplan, aki Trump más közismert támogatóival együtt érkezett meg a Meta vezetésébe, most azt ígéri, hogy a közösségi platform megszabadul az ilyen túlkapásoktól. Abba ugyan nem ment bele, hogy milyen jellegű információra gondol, a Platformer szerint kiderült, hogy a harmadik felekre épülő tényellenőrzés mellett a félretájékoztatás ellen irányuló szűrést biztosan megszüntették.
Egyik szélsőségből a másikba
A cikk a vállalat egyik 2018-as közleményét is felidézi a szóban forgó gyakorlatokról, amelyek látszólag nem ütköznek a véleménynyilvánítás szabadságával. Azok ugyanis egy nehezen visszaadható szójátékkal a "freedom of speech" (a szólás szabadsága) helyett a "freedom of reach" (az elérés szabadságának) korlátozására mennek rá: a nyilvánvalóan hamis állításokkal érkező tartalom elérésének visszasorolásával senkibe sem fojtották bele a szót, de korlátozták az ilyen üzenetek gyors terjedését és a felhasználókra gyakorolt hatásait. Ennek előnyei a világjárvány alatt váltak nyilvánvalóvá, amikor a Meta szerint az emberek 95 százaléka még csak le sem kattintotta a téves információ miatt megjelölt posztokat.
A félretájékoztatás totális kiszorítását természetesen még akkor is kontraproduktív dolog lenne megkísérelni, ha a szabályozók általános bizalmat élveznének. Akkor azonban nem is ilyesmiről van szó, amikor olyan káros hatások enyhítéséről beszélünk, amelyek a ma ismert közösségi média működéséből következnek. Ahogy a cikkben is felhívják rá a figyelmet, nehéz a csalásokat azonosító és elérésüket visszafogó rendszerek ellen érvelni, legalábbis addig, amíg nem születnek fejlettebb megoldások, amelyek igazoltn jobbqn működnek. Arról pedig, hogy mindez hogyan függ össze a Metánál bejelentett leépítésekkel vagy az X állítólagos normáival, további részletek derülnek ki a Platformer írásából.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak