Az online szoftverrobotok, vagyis a weben működő, automatizált programok a hasznosságuk mellett is régóta mindenféle frusztráció forrásai, és a hírek szerint ez a koronavírus-járvány, illetve a védőoltásokra való netes regisztráció tekintetében sincs másként. Ahol a lakosság oltása nem kizárólag egy központi rendszeren, hanem a különféle állami és magán szolgáltatókon múlik, ott az oltóanyaghiány miatt komoly manőverezést igényel egy-egy regisztráció, és ebben a küzdelemben természetesen a robotok is megjelentek.
Az egyes rendszereket most meg sem próbáljuk összehasonlítani, nyilván az időpontokért való versengésnek vagy a néma telefon mellett ücsörgésnek is megvan a maga árnyoldala, legyen szó az itteni vagy a tengerentúli módiról. Az utóbbit mindenesetre még bonyolultabbá teszi, hogy az egyszeri felhasználó maga lenne hivatott követni a sokféle csatornán minden egyes időpontváltozást, új és megszüntetett lehetőséget vagy üresedést, ami különösen nehéz feladat mindazok számára, akik amúgy sem mozognak otthonosan a virtuális térben.
A leggyakrabban alkalmazott szoftverrobotok elvileg ebben hivatottak segíteni, mivel folyamatosan szkennelik a szolgáltatók publikus felületetit, az általuk azonosított változásokat pedig a programok működtetői azonnal közzétehetik a megfelelő fórumokon, a közösségi médiában, esetleg dedikált üzeneteken keresztül. Ahogy azonban a SecurityWeek friss összeállításából is kiderül, mindennek nem csak jótékony hatásai vannak: egy Bostontól két órányira fekvő massachusettsi városban például az oltóközpontnak vissza kellett vonnia egy korábban már meghirdetett időpontot, mert percekkel annak kiírása után a lista teljesen megtelt máshol élő regisztráltakkal.
A kígyó a saját farkába harap
Ugyanígy New Jersey-ben már arra kényszerültek, hogy a robotok elleni védekezés érdekében átalakítsák (értsd: bonyolultabbá tegyék) a jelentkezési rendszert, ami azonban a technológiailag felkészültebb jelentkezőknek kedvez, és éppen azt a hatást erősíti, amiért elvileg a botokat is létrehozták. Ez utóbbiak a weboldalak felépítésétől függően különféle technikákat alkalmazhatnak, de általában kulcsszavak vagy táblázatok után kutatnak, amelyek az új időpontokra utalnak. A web scraping néven hivatkozott módszerrel kapcsolatban egyébként még a bírói gyakorlatban sincs teljes konszenzus, vagyis nem teljesen egyértelmű, hogy szabályos-e ilyen céllal, autonóm szoftverekkel átfásülni azokat az oldalakat, amelyek gazdái ezt kifejezetten nem szeretnék.
A lap riportjában megszólaló szoftvermérnök, aki maga is kifejlesztett és üzemeltet egy ilyen programot, más önkéntesekkel együtt az olyan, elsősorban idős embereknek próbál segíteni, akik maguktól nem feltétlenül képesek ellenőrizni, hogy felkerültek-e valamilyen oltási listára. Ám ahogy a fenti példákból is látszik, a robotok máshol komoly ellenállást váltanak ki. A SecurityWeek a massachusettsi Franklin megye egyik illetékesét idézi, aki szerint az oltásra jelentkezők 95 százaléka a megyén kívülről próbálkozik, nekik viszint az az elsődleges feladatuk, hogy a saját lakosságukat lássák el.
Arról már megoszlanak a vélemények, hogy a CAPTCHA védelem és más biztonsági intézkedések ezt a célt szolgálják-e, máskülönben pedig a helyi lakosok körében is vannak olyanok, akik nem ülnek 0-24-ben a számítógép előtt a frissítés gombot nyomkodva. Ott van ezen kívül a robotok egy másik fajtája, amelyek alkalmazására szerencsére még nem találtak lényeges bizonyítékokat. Az úgynevezett "scalper" robotok nem csak a változásokat naplózzák, de arra is képesek lehetnek, hogy adott esetben végigvigyék a regisztrációs folyamatot, hogy az üzemeltetőik aztán jó pénzért eladják a lefoglalt időpontokat.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak