A Kaliforniai Egyetem szuperszámítógép-központjának kutatói kiszámolták, mennyi üzleti adatot termeltünk 2008-ban. Már most durva mennyiségnél tartunk, 2024-re pedig elképzelhetetlenül nagyra nő az adatgyártás. Igaz, ennek nagy része felesleges, és sokszor láthatatlan.
Az eredmény nagyságára már az is jellemző, hogy a San Diegó-i intézmény munkatársai éveken keresztül elemezték a bolygón létrehozott adatok mennyiségét. Szerintük 2008-ban, csak a vállalati szerverek 9,57 zetabájt (tehát 9.570.000.000.000.000.000.000 bájt) információt dolgoztak fel. Ha könyvekben fejeznénk ki ezt az adatmennyiséget, a kutatók szerint egy kilencmilliárd kilométer magas könyvtornyot kapnánk: ez körülbelül a Föld-Neptun-Föld-útvonal hússzorosával egyenlő.
Bájtviharban ■ A kutatást, melynek
teljes anyaga szabadon letölthető, az adatelemzési és statisztikai módszerek mellett a piac meghatározó szereplői (például az IBM, a Cisco, az AT&T, az Intel, az Oracle, vagy a Seagate) és fontos kutatócégek (Gartner, IDC) támogatták információkkal. A tanulmány szerint 27 milliárd körül volt a vállalati szerverek száma világszerte 2008-ban. Az ezeken feldolgozott adatmennyiséget online tranzakció-feldolgozási benchmark eredmények, virtuális gépek mérési eredményei és webes szolgáltatások statisztikái alapján számolták ki.
A kutatók 3,18 milliárd felhasználóval számoltak, így mindegyikük évente átlagosan 3 terabájtnyi adatot hozott létre, vagy dolgozott fel - ez napi átlagban fejenként 12 gigabájtot jelent. Persze a tanulmányban arra is figyelmeztetnek, hogy ennek az adatmennyiségnek bizony jó része felesleges vagy éppen duplikált adat. Ha például elküldünk egy e-mailt, a csatolmányt "lekezeli" a küldő és fogadó szerver is, de ide tartoznak a különféle szoftverek és alkalmazások által készített logfájloktól az ideiglenes és pufferadatokig olyan információk, amellyel közvetlenül nem találkozunk.
Szaporodjatok, sokasodjatok... ■ A tanulmányban a 2008-as adatok, valamint az azóta tapasztalható trendek mellett egy 2024-es előrejelzés is található. Eszerint 13 év múlva az évente feldolgozott információ mérete már egy olyan könyvoszlopnak felel meg, amely a 4,37 fényév távolságra elhelyezkedő Alfa Centauri csillagon is túlnyúlna.
Az információ mennyisége tehát hihetetlen sebességgel növekszik, ami egyrészt az adatfeldolgozási kapacitás, másrészt pedig az adattárolás terén támaszt óriási követelményeket.
James E. Short, a tanulmány egyik elkészítője szerint már most rá kell készülnie az informatikai vezetőknek arra, hogy ez a hatalmas iramban szaporodó adattömeg milyen kihívásokkal, illetve problémákkal járhat majd.
A kutatók szerint az utóbbi években több előremutató technológia is jelentős fejlődésbe kezdett: a virtualizáció, valamint a költséghatékonyság mellett is hatékonyabb hardverelemek (például processzorok, hálózati eszközök vagy épp merevlemezek) további fejlesztése segíthet abban, hogy az információs társadalom átvészelhesse az adatcunamit.