Valami történt adatország szerverhercegeinél. Bő egy évtizede a piackutatók még arról értekeztek, hogy a szerverek bevonulnak a felhőszolgáltatók nagy adatközpontjaiba, és emiatt a szerverfejlesztés is más irányt vesz. Ma pedig arról beszélnek elemzők és piaci szereplők egyaránt, hogy a szervek kiterjesztik felségterületeiket az adatközpontokon túlra is.
Ravi Pendekanti, a Dell Technologies szervermegoldásokért felelős alelnöke a közelmúltban, az új PowerEdge portfólió bemutatásakor megerősítette a Gartner egy korábbi előrejelzését: tíz éve az adatok közel 75 százalékát az adatközpontokban dolgozták fel. 2025-re viszont egészen más világ lesz: az adatok 75 százalékának a feldolgozása kikerül a hagyományos adatközpontokból a "szélekre". Sőt ez az arány csak nőni fog, például az elosztott architektúrák miatt (IoT, 5G és társai), teszi hozzá Pendekanti.
Jön a workload-alapú szervertervezés
Amiről Pendekanti beszél, hosszú folyamat eredménye, és az IoT-n vagy az 5G-n túl nem független olyan technológiák mindennapivá válásától sem, mint a mesterséges intelligencia és a gépi tanulás. A Gartner már pár éve leírta: az edge computing átveszi a hatalmat az eddig a hagyományos adatközpontok uralta területen. Azóta már a piaci trendekből is látszik, hogy a változások ebbe az irányba tartanak. Patrick Moorhead, a Moor Insights & Strategy kutatócég alapító elnöke így kommentálta a szervergyártók követte irányt: ez egy régóta tartó folyamat, ráadásul egyre összetettebb munkaterhelések kerülnek ki a szélekre (a tendenciáról, valamint az edge computing előnyeiről korábban itt írtunk).
Ez a szervertervezésre is hat. Bár nyilván fontos, hogy egy szerver erősebb, gyorsabb, jobb energiahatékonyságú stb. legyen, ma már a tervezés nem csak a nyers erő (pl. processzor, memória) növelését célozza. Azt kell figyelembe venni, hogy az adott eszközt milyen környezetben és milyen feladatokra fogják alkalmazni. Ha például Microsoft SQL-t szeretnénk használni, akkor sokkal nagyobb hatékonyságot biztosít egy arra optimalizált szerver, mint egy nagy számítási kapacitással rendelkező általános kiszolgáló sok processzormaggal. Megint más szempontok lépnek be, ha a tranzakciós adatbázisokkal párhuzamosan egy vállalat bigdata-elemzéseket is szeretne futtatni, amihez pedig ismét más hardverháttér kell (nagy tárkapacitás, gyors adatelérés a Hadoop HDFS fájlrendszeréhez stb.).
Mint Rab Gergely, a Dell Magyarország vezető tanácsadója magyarázta, amellett, hogy továbbra is cél az adatközpontokban a lehető legnagyobb teljesítménysűrűség elérése, az adatrobbanás és az egyre gyorsabb adatfeldolgozás iránti igény a szélek felé terel nagyon sok munkafolyamatot. Így összeáll egy olyan, meglehetősen bonyolult edge–core infrastruktúra, amelynek az eszközeit érdemesebb workload alapon tervezni.
Belépnek a terepi rendszerek
Érdekes kérdés, hogy milyen feladatokat kell-érdemes átadni a széleken dolgozó rendszereknek. Az alapelv az, hogy a nyers adatokat érdemes előfeldolgozni, mégpedig az adatgyűjtés közelében, és az adatközpontba már csak ennek az eredményét továbbítani. Ennek a modellnek számtalan előnye van. Az előfeldolgozás adatai azonnal felhasználhatók, és mivel közelebb vannak az adatforráshoz, a latenciájuk is kisebb, csökken a hálózati forgalom, ami az IoT-eszközök robbanásszerű terjedése miatt kritikus kérdés – Rab Gergely említett olyan általa ismert rendszert, ahol a terepi szerverben naponta 90 terabájt adat keletkezik. Még a compliance is javul (pl. GDPR), mivel a nyers adatok lényegében ott maradnak, ahol gyűjtik őket. Emellett az sem utolsó szempont, hogy ebben a modellben könnyebb összekapcsolni a legacy eszközöket az új, connected eszközökkel, hogy azokat bevonhassuk az adatforrások körébe.
A terepi (vagy klasszikusabb elnevezéssel ipari) szervereket korábban szinte csak a kialakításuk különböztette meg az adatközponti szerverektől. Ilyen tulajdonság például az extrém hőtűrés (-15-től +55 Celsius-fokig), az áramingadozás-tűrés vagy a por-, pára- és rezgésállóság. Az elhelyezhetőséget javítandó ezek a kiszolgálók kisebb méretűek (jellemzően 1U magasak, így akár rackbe is szerelhetők, de mélységük kisebb az adatközponti szerverekénél).
Nem csak elegáns, üzletileg is hasznos
Ma már ezeknek a kiszolgálóknak az edge-core adatfeldolgozási modell miatt jelentős számítási kapacitást is kell biztosítaniuk, ezért sok modellbe GPU is kerül, amely gyorsítja az ún. mátrixműveletek végrehajtását. A GPU-k szerveroldali alkalmazását a mesterségesintelligencia- és gépi tanulási megoldások hozták el. Ezeknél ugyanis nem lehet megjósolni előre például, hogy milyen számtartományban fogunk dolgozni. A GPU-k speciális számítási kapacitása azonban az IoT/IIoT adatok esetén is kiválóan használható: lehetővé válik ezeknek az adatoknak a valós idejű idősoros feldolgozása, aminek komoly üzleti haszna lehet.
Az önvezető autók fejlesztésénél például ez kulcskérdés. Rengeteg adat keletkezik, amit rendkívül alacsony latenciával kell tudni kezelni, hogy az autó minden időpillanatban az optimális utasítást kaphassa. Az edge-core modell, valamint az ehhez optimalizált szerverek olyan egyszerűbb, de közel sem triviális feladatok megoldásában is segítenek, mint a közutak ütemezett javítása. Ha például egy gumiabroncsba épített érzékelők rögzítik az útegyenetlenségeket, akkor ezeket az információkat feldolgozva nagy pontossággal előre lehet jelezni, hogy melyik útszakaszon várhatóan mikor lesz szükséges a burkolat javítására. A javítás tervezhetőbb lesz, ami zavartalanabb közlekedést, kevesebb útzárat, forgalmi dugót és balesetet stb. eredményez. De ugyanez a modell teheti valóban működőképessé a személyre szabott balesetbiztosításokat is. A lényeg mindkét esetben, hogy egy időben hatalmas adatmennyiség keletkezik. Ez valójában streamingadat-menedzsment, ami voltaképpen nem más, mint valós idejű bigdata-analitika, mondja Rab Gergely.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak