A BuzzFeed keddi beszámolója szerint a Facebook házon belül demózta illetékes vezetőinek azt az új fejlesztését, ami a hosszabb lélegzetvételű hírek rövid összefoglalásának automatizálását célozza. A TL;DR néven hivatkozott, mesterséges intelligenciára alapuló renszer ennek alapján egy rövid bekezdésben foglalná össze az egyes anyagok tartalmát, hasonlóan azokhoz a kiadványokhoz, amelyek az elfoglalt vagy türelmetlen olvasókat célozva eleve a néhány mondatos hírekkel operálnak.
A TL;DR (Too Long, Didn't Read – túl hosszú, nem olvastam el) kifejezés az internetes szlengben eredetileg arra utalt, ha egy hozzászóló a hossza miatt nagyrészt figyelmen kívül hagyott egy olyan szöveget, amire éppen reagál. Utóbb azonban már így hivatkoznak azokra a rövid összefoglalókra is, amelyeket a hosszú cikkek elejére vagy végére biggyesztenek, néhány mondatba sűrítve a lényegét mindannak, amit az írásban részletesebben is kibontanak.
Ez egyrészt praktikus, figyelembe véve, hogy mennyi információ ömlik a felhasználókra, és esetenként mennyire nincs idejük elmélyedni a több oldalas cikkekben. Másrészt csak ritkán lehetséges minden lényeges információt belezsúfolni egyetlen bekezdésbe, különösen, hogy a legtöbb sztorinak több oldala is van: amikor a félrevezető vagy eleve hamisított hírek virális terjedése a közösségi média egyik legnagyobb problémája, ez a lebutított tálalás nem feltétlenül tűnik előremutató dolognak.
Elméletileg hasznos, gyakorlatilag borzasztóan veszélyes
Ezzel a Facebooknál azt az érvet állítják szembe, hogy a hosszú anyagokat a legtöbb felhasználó amúgy is csak felületesen futja át, és könnyen átsiklik a fontos információ fölött, miközben meg van róla győződve, hogy tökéletesen tájékozottá vált az adott témában. Ennél pedig sokkal jobb egy lényegre törő összefoglalás, különösen, hogy a TL;DR egy olyan MI-támogatott digitális asszisztens lenne, ami a feldolgozott tartalom alapján válaszolni is tud a cikkekkel kapcsolatos kérdésekre.
Ez utóbbi azt jelentené, hogy a mesterséges intelligencia segíthet az olvasónak tisztázni a homályos pontokat, bár ehhez azt is igazolni kellene, hogy maga az algoritmus nem működik azokkal az eleve belekódolt vagy a tanulási folyamat során kialakult elfogultságokkal, amelyek valamilyen szinten az összes jelenleg működő MI-renszerre jellemzők. Ugyanilyen fontos a források értékelése vagy a kontextus értelmezése, vagyis a fokozott óvatosság a nem megbízható tartalmakkal és a környezetükből kiragadott idézetekkel szemben, hiszen ezek éppen hogy a dezinformáció terjesztését segítenék elő még hatékonyabb, automatizált módon.
Figyelembe véve, hogy a Facebook manapság az álhírek terjesztésének első számú platformja világszerte, és tekintettel arra, hogy a közösségi hálózatnak eddig nem sikerült hatékonyan fellépnie a virálisan terjedő álhírek ellen, az első beszámolók meglehetősen pesszimisták, és katasztrofális következményeket vetítenek előre egy ehhez hasonló megoldás bevezetését illetően. A TL;DR persze még nem egy publikus szolgáltatás, és a Facebook sem volt hajlandó kommentálni a BuzzFeed értesüléseit, így hivatalosan semmit sem tudunk a hírek tartalmát összefoglaló algoritmusról.
Annyi biztos, hogy a Facebook sok tekintetben a mesterséges intelligenciától vár eredményeket a hatékonyság javításában és az egyre halmozódó problémák megoldásában, az adatközpontok működésének felgyorsításától a moderációig és a gyűlöletbeszéd kiszűréséig. A társaság november végén például azt közölte, hogy a legutóbbi negyedévben több mint 22 millió esetben lépett fel ilyen tartalmak ellen, és a megjelenések 95 százalékát proaktív módon azonosították – vagyis az MI segítségével még azelőtt megjelölték vagy el is távolították, hogy egy-egy felhasználó bejelentést tett volna velük kapcsolatban.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak