A hírforrások pontosságát és elfogultságát méri az az osztályozó algoritmus, amelyről kedden publikáltak egy rövid leírást az ötlet kidolgozásában résztvevő amerikai, katari és bolgár egyetemi kutatók. Az új modell az álhírek elleni küzdelem gyenge pontjait próbálja aládúcolni: ilyen például a manuális ellenőrzés nehézkessége, az automatizált tartalomelemző megoldások pontatlansága és a velük szemben tapasztalható bizalmatlanság. Ehhez járul az a jelenség is, hogy a "fact-checking" általában eredménytelen, amennyiben a kitalált információt magáévá tevő olvasót utólag már nehéz meggyőzni, vagyis valós időben alkalmazható módszerekre van szükség.
Az új elképzelés szerint az egyes állítások elemzése helyett gyors és hatékony előzetes szűrést lehet végezni a források megfelelő osztályozásával. Az álhíreknek, bár terjedésüket a közösségi médiában való megjelenés és a megosztások gyorsítják fel, mégiscsak szükségük van egy olyan oldalra, hol először megjelennek és amire a megosztások hivatkoznak. Bár a tényeket ellenőrző szervezetek a forrásokat is vizsgálják, ezek a besorolások egyrészt hamar elavulnak, másrészt szükségszerűen hiányosak. A kutatás most az online médiumok azonnali osztályozásával és a predikcióval operál – vagyis előzetes szűrést végez annak alapján, hogy milyen eséllyel megbízható az adott forrás.
Ami annak látszik, az sokszor tényleg az
Más szóval, a kutatók által betanított osztályozó algoritmus előre jelzi az egyes hírek forrására jellemző pontosságot, és a forrás elfogultságának mértékét is. Ezt pedig megjelenítheti az anyagok mellett, tájékoztatva az olvasót arról, hogy milyen fenntartásokkal érdemes kezelnie a cikkekben talált információt. Ha valahol korábban már terjesztettek kamu híreket, akkor feltételezhető, hogy ezt a jövőben is megteszik majd – a kérdés csak az, hogy ennek mekkora a valószínűsége. Fontos, hogy az osztályozó rendszer nem (csak) a tartalom korábbi minősítéseire támaszkodik, mivel az indikátorok között a formálisnak tűnő jellegzetességeket is számba veszi.
Ez azt jelenti, hogy a mintaként elemzett cikkek mellett megnézi, hogy van-e a kiadónak Wikipédia-oldala és Twitter-csatornája, értékeli a forrás URL-jét (https protokoll, xyz.com helyett xyz.com.co hamisítások stb.), sőt a hozzá kapcsolódó webes forgalmat is. De ilyen indikátor például az is, hogy az álhírek gyakran klikkvadász címekkel jelennek meg, és hiperbolikus szövegek, vagyis túlzásokkal erősítik a tartalmat a fogalmak vagy jelenségek valódi mértékét meghaladó fogalmazással. Ennek elbírálása pedig nem csak gyorsabb, de a predikció szempontjából hatékonyabb is a konkrét állítások valóságtartalmának kimerítő vizsgálatánál.
A kutatásban állítólag 1066 különböző weboldal 94.814 anyagát dolgozták fel, ennek alapján pedig három csoportba (alacsony, vegyes, magas) sorolták a lapok tényszerűégét és az elfogultságát, ide értve a politikai elfogultságot is. A rendszer a dokumentum szerint közel 65 százalékos pontossággal jósolta meg, hogy az egyes hírforrásokból származó tartalmak mennyire épülnek a tényekre, és ennél is magasabb, majdnem 70 százalékos találati aránnyal lőtte be a források politikai elkötelezettségét. Ez kezdetnek semmiképpen sem rossz, különösen, hogy a kutatók a kódokat és az adatkészleteket a GitHub felületén mindenki által elérhetővé tették.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak