A Sheffieldi Egyetem számítástudományi részlegének kutatói egy olyan MI-algoritmus fejlesztéséről számoltak be, ami nagy pontossággal képes előrejelezni az egyes Twitter-felhasználókról, ha azokra jellemző az ellenőrizetlen vagy hamis információ terjesztése – természetesen még azelőtt, hogy erre ténylegesen sor kerülne. A tudósok összesen 6.200 fiókból származó több mint 1 millió publikus tweetet elemeztek a természetes nyelvek feldolgozására szolgáló módszerekkel, ami segített a rendszernek feldolgozni és értelmezni a nyelvi adatokat.
A kutatás részeként a felhasználókat két kategóriába osztották: az egyikbe kerültek, akik hajlamosak voltak továbbadni a megbízhatatlan információt, a másikba pedig azok, akikre ez nem volt jellemző. A feldolgozott szövegek alapján betanított modell innentől kezdve az új alanyok esetében is képessé vált majdnem 80 százalékos pontossággal előrejelezni, ha az illető a jövőben meg fogja osztani a bizonytalan forrásokból származó tartalmakat, ami már fejlesztéseknek ebben a szakaszában is bőven túlhaladja a pénzfeldobásos eredményeket.
A vizsgálatok megmutatták, hogy az ilyen felhasználók hajlamosabbak politikai vagy vallási témákról értekezni, és az átlagosnál gyakrabban használnak nem túl szalonképes kifejezéseket. Twitter-üzeneteikben ugyancsak az átlagnál gyakrabban fordulnak elő a "liberális", a "kormány" vagy a "média" szavak (itt természetesen angol nyelvű posztokról beszélünk), mint ahogy a Közel-Kelet, Izrael és az iszlám vallás is gyakran megjeleni a tőlük származó tweetekben.
A nyugodt felhasználó a jó felhasználó
Ezzel szemben azok, akik kevéssé hajlamosak az ellenőrizetlen vagy szándékosan félrevezető tartalom megosztására, sokkal gyakrabban posztolnak személyes témákat, mint amilyenek az érzelmek vagy a barátaikkal való különféle interakciók. A megbízhatónak tekintett hírforrásokra hivatkozó felhasználókra a statisztika alapján is jellemző, hogy gyakrabban használnak jövőidőt, illetve a "hangulat", az "izgalmas" vagy a "születésnap" szavakat.
A kutatók szerint az ehhez hasonló anyagok segítségére lehetnek a Twitternek, a Facebooknak és más közösségimédia-szolgáltatóknak, hogy új megoldásokat dolgozzanak ki a dezinformáció terjesztésének akadályozására. Az eredmények ugyancsak hasznosak lehetnek a társadalomtudományok vagy a pszichológia területén, ahol nagy összefüggésekben is hozzájárulhatnak a felhasználói viselkedés jobb megértéséhez, tekintettel például a politikai indulatok és a kétes forrásból származó értesülések összefüggéseire. Az persze nem meglepő, hogy a felspannolt júzerek lelkesebben szaladnak be a málnásba, de a mostani kutatás lényege éppen az algoritmizált előrejelzés, vagyis hogy ne csak utólag lehessen megállapítani, ha valaki tényleg így viselkedett.
Ahogy a Facebook november végén közzétett statisztikáiból is kiderült, a közösségi oldalon 10 ezer megtekintésből 10-11 esetben futnak bele a felhasználók gyűlöletbeszédnek minősített tartalmakba, vagyis az egyes bejegyzéseket vagy megosztásokat olvasva 0,10-0,11 százalékos eséllyel találkozhatnak ilyesmivel. Ahogy akkor írtuk, az esélyeket itt sem a posztok összeszámolásával, hanem véletlenszerű minták eléréseinek vizsgálatával állapítják meg, figyelembe véve abejegyzések terjedésének viralitását is.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak