A Kaliforniai Egyetem szuperszámítógép-központjának kutatói kiszámolták, mennyi üzleti adatot termeltünk 2008-ban. Már most durva mennyiségnél tartunk, 2024-re pedig elképzelhetetlenül nagyra nő az adatgyártás. Igaz, ennek nagy része felesleges, és sokszor láthatatlan.
Hirdetés
 
Az eredmény nagyságára már az is jellemző, hogy a San Diegó-i intézmény munkatársai éveken keresztül elemezték a bolygón létrehozott adatok mennyiségét. Szerintük 2008-ban, csak a vállalati szerverek 9,57 zetabájt (tehát 9.570.000.000.000.000.000.000 bájt) információt dolgoztak fel. Ha könyvekben fejeznénk ki ezt az adatmennyiséget, a kutatók szerint egy kilencmilliárd kilométer magas könyvtornyot kapnánk: ez körülbelül a Föld-Neptun-Föld-útvonal hússzorosával egyenlő.


Bájtviharban A kutatást, melynek teljes anyaga szabadon letölthető, az adatelemzési és statisztikai módszerek mellett a piac meghatározó szereplői (például az IBM, a Cisco, az AT&T, az Intel, az Oracle, vagy a Seagate) és fontos kutatócégek (Gartner, IDC) támogatták információkkal. A tanulmány szerint 27 milliárd körül volt a vállalati szerverek száma világszerte 2008-ban. Az ezeken feldolgozott adatmennyiséget online tranzakció-feldolgozási benchmark eredmények, virtuális gépek mérési eredményei és webes szolgáltatások statisztikái alapján számolták ki.

A kutatók 3,18 milliárd felhasználóval számoltak, így mindegyikük évente átlagosan 3 terabájtnyi adatot hozott létre, vagy dolgozott fel - ez napi átlagban fejenként 12 gigabájtot jelent. Persze a tanulmányban arra is figyelmeztetnek, hogy ennek az adatmennyiségnek bizony jó része felesleges vagy éppen duplikált adat. Ha például elküldünk egy e-mailt, a csatolmányt "lekezeli" a küldő és fogadó szerver is, de ide tartoznak a különféle szoftverek és alkalmazások által készített logfájloktól az ideiglenes és pufferadatokig olyan információk, amellyel közvetlenül nem találkozunk.

Mobilalkalmazásoktól függ a kisvállalkozások harmada
A tabletek megeszik a PC-piacot?
Tonnányi tárhelyet vásárol az Apple

Szaporodjatok, sokasodjatok... A tanulmányban a 2008-as adatok, valamint az azóta tapasztalható trendek mellett egy 2024-es előrejelzés is található. Eszerint 13 év múlva az évente feldolgozott információ mérete már egy olyan könyvoszlopnak felel meg, amely a 4,37 fényév távolságra elhelyezkedő Alfa Centauri csillagon is túlnyúlna.

Az információ mennyisége tehát hihetetlen sebességgel növekszik, ami egyrészt az adatfeldolgozási kapacitás, másrészt pedig az adattárolás terén támaszt óriási követelményeket. James E. Short, a tanulmány egyik elkészítője szerint már most rá kell készülnie az informatikai vezetőknek arra, hogy ez a hatalmas iramban szaporodó adattömeg milyen kihívásokkal, illetve problémákkal járhat majd.

A kutatók szerint az utóbbi években több előremutató technológia is jelentős fejlődésbe kezdett: a virtualizáció, valamint a költséghatékonyság mellett is hatékonyabb hardverelemek (például processzorok, hálózati eszközök vagy épp merevlemezek) további fejlesztése segíthet abban, hogy az információs társadalom átvészelhesse az adatcunamit.

Pár év alatt 600 milliárd dollárt verne el infrastruktúrára a tőzsdére készülő OpenAI

A világ legjelentősebb mesterségesintelligencia-fejlesztőjénél nem aggódnak különösebben az MI-lufi kipukkanása miatt. A cég 2030-ig szóló tervei szerint a világ pénzénél is egy kicsit többet költének adatközpontokra.
 
Hirdetés

Produktivitás mint stratégiai előny: mit csinálnak másként a sikeres cégek?

A META-INF által szervezett Productivity Day 2026 idén a mesterséges intelligencia és a vállalati produktivitás kapcsolatát helyezi fókuszba. Az esemény középpontjában a META-INF nagyszabású produktivitási kutatásának bemutatása áll, amely átfogó képet nyújt a magyar vállalatok hatékonyságáról és működési kihívásairól.

Vezetői példamutatás és megfelelő oktatás, vállalatikultúra-váltás nélkül gyakorlatilag lehetetlen adatvezérelt működést bevezetni. Cikkünk nemcsak a buktatókról, hanem azok elkerülésének módjairól is szól.

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.