A hatalmas adatkészletek felhasználásában az adatok tárolása önmagában is kihívást jelent, mielőtt az analitikus technológiák egyáltalán szóba jönnének. A big data egyik definíciója is éppen arra van kihegyezve, hogy a korábbinál sokkal nagyobb mennyiségű adat begyűjtésével új módszerekre van szükség az információ hatékony felhasználásához, kezdve a hagyományos tárolási megoldások felülvizsgálatával. Ezek ugyanis alkalmatlanok az egyre nagyobb tempóban beözönlő adatfolyam kezelésére, így természetes, hogy a felhő alapú tárolás vagy a blokklánc-technológiák is fokozatosan teret nyernek.
Mennyi adat keletkezik mostanában?
Már mindenki megszokhatta, hogy a globálisan előállított adattömeget jó ideje zettabájtokban (tíz a huszonegyediken bájtos egységekben) mérik. Már 2010-ben is nagyjából 2 zettabájtnyi új, digitálisan rögzített adat jött létre világszerte, ami a legutóbbi évben, 2018-ban 33 zettabájtra emelkedett. A fejlődés azonban nem lineáris: ha a 33 zettabájtos mennyiséget neház ép ésszel felfogni, akkor gondoljunk arra, hogy az előrejelzések szerint jövőre 47, 2025-ben 175, 2030-ban 612, 2035-ben pedig 2142 zettabájtos új adattömeggel számolhatunk – ezzel utóbbival meg is érkezünk majd a jottabájtos tartományba.
Az idei Statista Digital Markets Outlook kutatás nem csak a trendhez tartozó számokat közli, de néhány példával azt is megpróbálja szemléltetni, hogy mit jelentene praktikusan a tavaly összehozott, 33 zettabájtos tétel. Nem mintha így sokkal könnyebb lenne befogadni, de ekkora adatmennyiség 660 milliárd darab Blu-ray lemezen férne el, sőt a világ jelenleg kapható legnagyobb kapacitású (100 terabájtos) merevlemezeiből is 330 millió darab kellene a tárolásához.
Utóbbival kapcsolatos érdekesség, hogy egyetlen ilyen tárolóra bőven felszaladna a teljes internet 1997-es becsült tartalma, ami csak 88 terabájtot tett ki – ebből pedig az is következik, hogy 2018-ban egyetlen év alatt is 375 milliószor annyi új adat keletkezett, amennyi 21 évvel azelőtt összesen elérhető volt a világhálón. Az 1 petabájtos kapacitásúnak számított emberi agyakból ehhez képest 33 millióra lenne szükség a tavalyi termés tárolásához, amit úgy érdemes elképzelni, hogy a 2018-as adattömeg éppen csak elférne Malajzia teljes lakosságának a fejében.
A párhuzamoknak ezzel még nincs vége: a Statista unatkozó szakemberei azt is kiszámolták, hogy a világ jelenlegi leggyorsabb szuperszámítógépéből, a Tennesse állambeli Oak Ridge National Laboratory számára épített, Summit nevű rendszerből 132 ezer darabot kellene telepíteni, hogy az aktuális konfigurációban elegendő tárhelyünk legyen az előző évben keletkezett adatoknak. Ott vannak ugyanakkor a DNS-molekulák, amelyek egyetlen gramm tömegben 455 exabájtos "tárhelyet" biztosítanak – a fentiekhez képest még ez tűnik a legtakarékosabb megodásnak, hiszen a szóban forgó volumen archiválásához mindössze 73 grammnyi DNS-molekulára lenne szükség.
A felhő nem lehetőség, hanem szükségszerűség
Az új tárolási trendekről szólva a Statista Digital Markets Outlook a cloud alapú adattárolásról, ezen belül is a vállalati felhős adattárolásról beszél, mint az egész piac meghatározó szegmenséről. Itt a legfeltűnőbb megállapítás, hogy az adatmennyiséget tekintve a cloud storage már ebben az évben túlnövi a hagyományos (saját eszközökön való) tárolást. A vállalatok esetében ugyanerre a fordulatra 2020-ban számítanak az elsődleges tárolómegoldások tekintetében, 2026-ra pedig egyenesen azt jósolják, hogy az iparág összes bevételének több mint 90 százaléka már a cloud modellekből származik majd.
A legnagyobb piaci szereplő már megszokott módon az Amazon, amely amúgy is teljes elérhető tárolókapacitás harmadán ücsörög. Amellett azonban, hogy az AWS vezető szerepe és részesedése stabil, az összeállításból az is kiderül, hogy a piac maradék kétharmadát szép lassan elfoglalja a Microsoft, a Google és az IBM. Ezek a vállalatok az elmúlt időszakban mind komoly befektetéseket eszközöltek a cloud technológiákban, értve ezalatt elsősorban a cégfelvásárlásokat: míg az AWS az elmúlt öt évben 12 akvizíciót jelentett be ezen a területen, addig a Google és a Microsoft 24-24 felvásárlást ütött nyélbe.
A vállalati piacon ugyancsak az Amazon dominál, a Statista adatai alapján az AWS adaptációs rátája 2017-ben 59 százalékos, 2018 végére pedig 68 százalékos volt ebben a szegmensben. Ugyanakkor a Microsoft és az Azure 2017-ben 43, míg 2018-ban már 58 százalékon állt, vagyis villámgyorsan zárkózik az Amazonhoz. A Google ebben a tekintetben 19, az IBM pedig 15 százalékra volt jó az előző évben. Tavaly ilyenkor az "egyéb" kategóriába sorolt szolgáltatók (tehát a fenti négy társaságon kívül az összes többi cég) összességében is csak 40 százalékos piaci részesedéssel rendelkezett a Synergy Research Group adatai szerint.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak