Az elmúlt tíz évben radikális változás történt az adatfeldolgozásban, ami az infrastruktúrát is átalakította.

Valami történt adatország szerverhercegeinél. Bő egy évtizede a piackutatók még arról értekeztek, hogy a szerverek bevonulnak a felhőszolgáltatók nagy adatközpontjaiba, és emiatt a szerverfejlesztés is más irányt vesz. Ma pedig arról beszélnek elemzők és piaci szereplők egyaránt, hogy a szervek kiterjesztik felségterületeiket az adatközpontokon túlra is.

Ravi Pendekanti, a Dell Technologies szervermegoldásokért felelős alelnöke a közelmúltban, az új PowerEdge portfólió bemutatásakor megerősítette a Gartner egy korábbi előrejelzését: tíz éve az adatok közel 75 százalékát az adatközpontokban dolgozták fel. 2025-re viszont egészen más világ lesz: az adatok 75 százalékának a feldolgozása kikerül a hagyományos adatközpontokból a "szélekre". Sőt ez az arány csak nőni fog, például az elosztott architektúrák miatt (IoT, 5G és társai), teszi hozzá Pendekanti.

Jön a workload-alapú szervertervezés

Amiről Pendekanti beszél, hosszú folyamat eredménye, és az IoT-n vagy az 5G-n túl nem független olyan technológiák mindennapivá válásától sem, mint a mesterséges intelligencia és a gépi tanulás. A Gartner már pár éve leírta: az edge computing átveszi a hatalmat az eddig a hagyományos adatközpontok uralta területen. Azóta már a piaci trendekből is látszik, hogy a változások ebbe az irányba tartanak. Patrick Moorhead, a Moor Insights & Strategy kutatócég alapító elnöke így kommentálta a szervergyártók követte irányt: ez egy régóta tartó folyamat, ráadásul egyre összetettebb munkaterhelések kerülnek ki a szélekre (a tendenciáról, valamint az edge computing előnyeiről korábban itt írtunk).

Ez a szervertervezésre is hat. Bár nyilván fontos, hogy egy szerver erősebb, gyorsabb, jobb energiahatékonyságú stb. legyen, ma már a tervezés nem csak a nyers erő (pl. processzor, memória) növelését célozza. Azt kell figyelembe venni, hogy az adott eszközt milyen környezetben és milyen feladatokra fogják alkalmazni. Ha például Microsoft SQL-t szeretnénk használni, akkor sokkal nagyobb hatékonyságot biztosít egy arra optimalizált szerver, mint egy nagy számítási kapacitással rendelkező általános kiszolgáló sok processzormaggal. Megint más szempontok lépnek be, ha a tranzakciós adatbázisokkal párhuzamosan egy vállalat bigdata-elemzéseket is szeretne futtatni, amihez pedig ismét más hardverháttér kell (nagy tárkapacitás, gyors adatelérés a Hadoop HDFS fájlrendszeréhez stb.).

Mint Rab Gergely, a Dell Magyarország vezető tanácsadója magyarázta, amellett, hogy továbbra is cél az adatközpontokban a lehető legnagyobb teljesítménysűrűség elérése, az adatrobbanás és az egyre gyorsabb adatfeldolgozás iránti igény a szélek felé terel nagyon sok munkafolyamatot. Így összeáll egy olyan, meglehetősen bonyolult edge–core infrastruktúra, amelynek az eszközeit érdemesebb workload alapon tervezni.

Belépnek a terepi rendszerek

Érdekes kérdés, hogy milyen feladatokat kell-érdemes átadni a széleken dolgozó rendszereknek. Az alapelv az, hogy a nyers adatokat érdemes előfeldolgozni, mégpedig az adatgyűjtés közelében, és az adatközpontba már csak ennek az eredményét továbbítani. Ennek a modellnek számtalan előnye van. Az előfeldolgozás adatai azonnal felhasználhatók, és mivel közelebb vannak az adatforráshoz, a latenciájuk is kisebb, csökken a hálózati forgalom, ami az IoT-eszközök robbanásszerű terjedése miatt kritikus kérdés – Rab Gergely említett olyan általa ismert rendszert, ahol a terepi szerverben naponta 90 terabájt adat keletkezik. Még a compliance is javul (pl. GDPR), mivel a nyers adatok lényegében ott maradnak, ahol gyűjtik őket. Emellett az sem utolsó szempont, hogy ebben a modellben könnyebb összekapcsolni a legacy eszközöket az új, connected eszközökkel, hogy azokat bevonhassuk az adatforrások körébe.

A terepi (vagy klasszikusabb elnevezéssel ipari) szervereket korábban szinte csak a kialakításuk különböztette meg az adatközponti szerverektől. Ilyen tulajdonság például az extrém hőtűrés (-15-től +55 Celsius-fokig), az áramingadozás-tűrés vagy a por-, pára- és rezgésállóság. Az elhelyezhetőséget javítandó ezek a kiszolgálók kisebb méretűek (jellemzően 1U magasak, így akár rackbe is szerelhetők, de mélységük kisebb az adatközponti szerverekénél).

Nem csak elegáns, üzletileg is hasznos

Ma már ezeknek a kiszolgálóknak az edge-core adatfeldolgozási modell miatt jelentős számítási kapacitást is kell biztosítaniuk, ezért sok modellbe GPU is kerül, amely gyorsítja az ún. mátrixműveletek végrehajtását. A GPU-k szerveroldali alkalmazását a mesterségesintelligencia- és gépi tanulási megoldások hozták el. Ezeknél ugyanis nem lehet megjósolni előre például, hogy milyen számtartományban fogunk dolgozni. A GPU-k speciális számítási kapacitása azonban az IoT/IIoT adatok esetén is kiválóan használható: lehetővé válik ezeknek az adatoknak a valós idejű idősoros feldolgozása, aminek komoly üzleti haszna lehet.

Az önvezető autók fejlesztésénél például ez kulcskérdés. Rengeteg adat keletkezik, amit rendkívül alacsony latenciával kell tudni kezelni, hogy az autó minden időpillanatban az optimális utasítást kaphassa. Az edge-core modell, valamint az ehhez optimalizált szerverek olyan egyszerűbb, de közel sem triviális feladatok megoldásában is segítenek, mint a közutak ütemezett javítása. Ha például egy gumiabroncsba épített érzékelők rögzítik az útegyenetlenségeket, akkor ezeket az információkat feldolgozva nagy pontossággal előre lehet jelezni, hogy melyik útszakaszon várhatóan mikor lesz szükséges a burkolat javítására. A javítás tervezhetőbb lesz, ami zavartalanabb közlekedést, kevesebb útzárat, forgalmi dugót és balesetet stb. eredményez. De ugyanez a modell teheti valóban működőképessé a személyre szabott balesetbiztosításokat is. A lényeg mindkét esetben, hogy egy időben hatalmas adatmennyiség keletkezik. Ez valójában streamingadat-menedzsment, ami voltaképpen nem más, mint valós idejű bigdata-analitika, mondja Rab Gergely.

Cloud & big data

Bóják állnak az autonóm vezetés útjába

A Waymo éles körülmények között dolgozó autójának nehéz napja volt. Az önvezető rendszer képtelen volt kezelni a sávterelő bóják jelentette "extrém" forgalmi helyzetet.
 
A Dell szerverportfóliója nem csak a hagyományos Intel-fronton erősödött, hanem az AMD jelentős újításait is felvonultatja.

a melléklet támogatója a Dell Magyarország

Ha bővítené tudását és fejlődne a digitális transzformáció területén, látogasson el a Transformation-experts.hu oldalra, ahol egy gyors regisztráció után inspiráló cikkek, esettanulmányok, prezentációk, videók és egyéb szakértői anyagok széles tárházához kap hozzáférést.

Minősített szolgáltatók, hosterek és globális piaci szereplők együtt szolgálhatják ki a vállalatok növekvő igényeit. Áttekintettük ezt a gyorsan változó piacot két szakértővel.

a melléklet támogatója az Invitech

...az pedig sokkal gyorsabb, ha mindent csak egyszer, vagy még egyszer sem kell személyesen elvégezni. Májusi mellékletünk második része az IT-infrastruktúra automatizálásáról.

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

A KPMG immár 22. alkalommal kiadott CIO Survey jelentése szerint idén az informatikai vezetők leginkább a digitalizációra, a biztonságra és a szoftverszolgáltatásokra koncentráltak.

Használtszoftver-kereskedelem a Brexit után

Az EU Tanácsa szerint összeegyeztethető a backdoor és a biztonság. Az ötlet alapjaiban hibás. Pfeiffer Szilárd fejlesztő, IT-biztonsági szakértő írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2021 Bitport.hu Média Kft. Minden jog fenntartva.