Nagyobb, gyorsabb, olcsóbb és mélyebb, közösségben vagy mobilon: novemberi üzleti analitika mellékletünk bevezetőjében sorra vesszük, hogyan alakulnak az elvárások és a lehetőségek az adatok feldolgozásában és elemzésében.
A vállalatoknak rohamosan növekvő adattömeget kell kezelniük, amelyet az üzleti rendszereken túl egyre több forrásból gyűjtenek össze: tulajdonképpen minden ide tartozik az ellátási láncoktól, az ipari és környezeti szenzoroktól vagy a szerverek naplózásától kezdve a webes robotokig, a közösségimédia-csatornákig és
a szövegbányászatig. Így a "több adat jobb" szemlélet, illetve a nagy mennyiségben keletkező, nem feltétlenül strukturált adattömeg (big data) tárolása és feldolgozása, illetve
a vállalati üzleti kultúra ehhez igazítása mellett az is lényeges kérdés, hogy miként érdemes kezelni az újabb típusú adatokat.
Mindehhez rendelkezésre állnak a megfelelő technológiák, mint amilyen mondjuk a nyílt forrású Hadoop adatmenedzsment-keretrendszer vagy a hagyományos relációs adatbázisok korlátain túllépő (nosql) megoldások. A céges felhasználók egyre olcsóbban, akár tömeghardvereken alapuló szerverinfrastruktúrán is nagy mennyiségű nyers adatot őrizhetnek meg, hogy azt ismét kielemezzék a később felmerülő üzleti problémák megoldásához. Ugyanakkor sok esetben nem is az a legfontosabb, hogy mennyi adatot sikerül összegereblyézni, hanem hogy a meglévő információt milyen hatékonysággal lehet elemezni.
Gyorsabban, olcsóbban ■ Ennek jellemző eszközei a számítógépek operatív memóriájában működő (in-memory) alkalmazások, amelyek a diszkek részben mechanikus folyamatait kiváltva komoly adatkészleteket, százmillió soros adattáblákat is a szervermemóriába töltenek, a lemezes egységeket pedig tulajdonképpen csak tárolási feladatokra használják. Az összetett lekérdezések korábban sok erőforrást kötöttek le, és órákat vagy napokat kellett várni rájuk, az új célgépekkel viszont másodpercek alatt elemzéseket lehet futtatni a hatalmas adattömegeken. A Gartner piackutató a memórián belüli adatelemzést
azok közé az informatikai trendek közé sorolta, amelyekre 2014-ben már meglehet, késő lesz felkapaszkodni.
200 millió
email utazik percenként a világhálón, 2 milliónál is több keresést indítanak a Google rendszerében, és a felhasználók minden percben 571 darab új weboldalt hoznak létre. A teljes internetes adatforgalom
közel száznegyvenszeresére nőtt az elmúlt tíz év során. A mobil internetes szegmens öt év alatt produkált ugyanilyen arányú növekedést.
Persze maga a hardver sem érdektetelen a teljesítmény javításának szempontjából. Jó példa a grafikus egységek felhasználása az adatfeldolgozáshoz, amely a vizuális megjelenítés és statisztikai elemzések során végzett számítások hasonlóságát aknázza ki: a GPU-k képesek lehetnek több százszor gyorsabban elvégezni bizonyos számításokat, mint a PC- vagy szerverprocesszorok.
Az analitika
a számítási teljesítmény növekedése mellett a memóriák és a tárolók árának csökkenéséből is profitál, míg a gyártókat a szoftverek oldaláról is komoly árversenyre kényszerítik a versenyképes nyílt forrású megoldások, amelyek az alapvető riportoláson túl már fejlett prediktív elemző funkciókat kínálnak. Mindez a választott architektúrákra is hat: korábban szűkösen és drágán állt rendelkezésre a megfelelő számítási kapacitás, és kényes kérdés volt, hogy az analitikával kapcsolatos munkaterhelés ne menjen az alapvető folyamatok rovására.
Mobilon és hálózatban ■ Az összes többi alkalmazás mintájára az üzleti intelligencia is mobil eszközökre költözik. Sőt a mobilitás a valós idejű analitika szempontjából is kulcsfontosságúvá válik, legyen szó a cég munkatársairól vagy ügyfeleiről. Ez az informatikai vezetők szempontjából nem annyira a bonyolult elemző funkciókról, mint az okostelefonokra vagy táblagépekre szabott felhasználói felületek kialakításáról szól. A feladat nem mindig egyszerű, hiszen a számítástechnikai eszközökkel való interakció vállalati környezetben is gyorsan változik. Az viszont mindenképpen jó hír, hogy a különálló mobil platformokhoz tartozó natív alkalmazásokkal szemben már praktikus alternatívát jelentenek a böngészőből futtatható alkalmazások, ahogy erre maguk a browserek is egyre alkalmasabbá válnak.
A Facebook és más közösségimédia-szolgáltatások felfutásával ugyancsak a figyelem középpontjába került a szóban forgó oldalakon generált óriási adattömeg elemzése, ez pedig
szükségessé teszi a megszokott BI-eszköztár kibővítését a nyelvi feldolgozás, a közösségi analitika, a véleményelemzés vagy mondjuk a kapcsolati hálózatok analitikájának támogatásával. A cél olyan készségek kialakítása, mint például a fogyasztói hangulat adott földrajzi régióhoz kötött változásának pontos mérése, ami azonnal összevethető a vállalat ugyanott eszközölt változtatásaival az árazás vagy bizonyos eljárások tekintetében.
Mivel újkeletű technikákról van szó, ezek mindegyike szolgáltatásként is igénybe vehető, így nem feltételezi a belső informatikai erőforrások nagy mértékű bevonását, bár a lehetőségek feltérképezése és értékelése, illetve a felhasználók képzése így is komoly feladatot jelent. A Bitport áprilisi,
nagyvállalati informatikai vezetőknek rendezett konferenciáján ugyanakkor az is elhangzott, hogy a CIO-knak ki kell lépniük a komfortzónájukból, gyártófüggetlen kísérletekbe kezdve a big data adatfeldolgozás területén, kihasználva a máskülönben elkerülhetetlen frissítési ciklusok lehetőségeit.
Az Oracle
július elején közzétett tanulmánya szerint a hagyományos adatbázis-kezelő készségek határait feszegető adattömeg egyelőre nem annyira volumenében, mint inkább a feldolgozás, az adatfajták és -források sokfélesége miatt jelent túl nagy falatot. A
The Future of CIO blog egyik bejegyzése ezzel kapcsolatban jól összefoglalja, hogy az adattömeg kezelése első nekifutásra bonyolult lehet, ezért érdemes mindent az üzleti célok és az üzleti stratégia átgondolásával kezdeni. Az adatstratégia és az adattérkép kidolgozása csak ezután következik, osztályozva a szervezet számára fontos adattípusokat, felmérve az adatok változásának, bővülésének ütemét, végül pedig priorizálni kell mindazokat üzleti problémákat, amelyek megoldásához adatelemzésre lesz szükség.