Minden erőfeszítésük ellenére az adatközpontok üzemeltetői nem tudták meggyőzni a szervezeteket arról, hogy kritikus fontosságú adataikat ki merjék tenni külső szolgáltatókhoz. A hiperkonvergens megoldások kora végleg pontot tett erre.

Míg az ezredforduló után továbbra is a robusztus, költséghatékonysági szempontokat másodlagosként kezelő és kevésbé rugalmas IT projektek voltak jellemzőek a nagyvállalatoknál, addig a jelen évtizedben egyre inkább előtérbe kerültek a flexibilis, skálázható, magasabb megtérülési mutatókkal bíró megoldások. Az ügyfelekért folytatott versengés egyik fontos eszköze, a digitalizáció ugyanis kikényszeríti a korábbinál jóval rövidebb átfutási – tervezési, telepítési, változtatási – idővel bíró projekteket.

Ennek ideális eszközét a (nyilvános) felhőalapú megoldásokban látták, ám azok hiába kínálnak egyszerű, rugalmas, automatizált és sztenderdizált módszert. Nem elég ugyanis, hogy csupán a használat után kell fizetni, vagyis minimalizálható a befektetési költség. Egy nagyon fontos tényező az összes pozitív tulajdonsággal szemben többet nyom a latban: az adatbiztonság kérdése, vagyis a belső adatok külső szolgáltatóhoz való kihelyezésének problémája.

Határokon belül tartani az adatokat

Közel sem varázsszer a public cloud tehát, ugyanakkor az általa kínált gyors alkalmazkodási képesség elengedhetetlenné vált a digitalizáció egyre gyorsuló üteme miatt. Mind több piaci szereplő irányából merült fel az igény egyfajta "on-premise cloudra", vagyis egy "dobozos adatközpontra". Ezzel pedig elérkeztünk a hiperkonvergens infrastruktúra (hyperconverged infrastructure, HCI) területére, ahol az egyszerűen és távolról menedzselhető, szabványos alapokon nyugvó, skálázható IT-szolgáltatás biztonságos(nak gondolt) keretek között, vállalati tulajdonban érhető el.

Fő célja az információt külső szolgáltató nélkül kezelő rendszernek az adatközponti felügyelet lehető legegyszerűbbre szabása. Tulajdonképpen az alkalmazások és a tranzakciók átviteli rendszerévé válik az infrastruktúra ahelyett, hogy processzorok, hálózati eszközök és memóriatárak összetett hálózataként definiálnák.

Az alkalmazások és a szerverek együtt, egyetlen platformról, az alkalmazások elérhetőségére és működésére fókuszálva felügyeltek. A számítási kapacitás, az állományok tárolása, a memória és a hálózati kapcsolatok közműszerűen, egyesével kezeltek, kapacitáselosztásuk pedig a felhasználói igények függvényében történik a jellemzően virtuális gépekre alapuló hiperkonvergens infrastruktúrában.

A fentiekből következően a HCI felépítése és skálázása során használt szerverek gyakorlatilag építőkockákként biztosítják az erőforráskészletet. Új kiszolgáló, hálózati eszköz telepítésével a rendszerbe kerülő számítási/tárolási/hálózati kapacitás nem válik azonnal dedikálttá; kiosztásuk a felhasználói igények függvényében történik.

Az úgynevezett szoftveralapú adatközpont (software-defined data center, SDDC) mögött álló elképzelés szerint a rendszereknek könnyen és gyorsan konfigurálhatóknak kell lenniük a teljesítménykövetelményeknek megfelelően. Ahelyett, hogy előre drótozottan működne a rendszer, szoftveresen szülessen döntés az erőforrások felhasználásáról. Mindazonáltal a hiperkonvergens infrastruktúrák nem feleltethetők meg egy az egyben az SDDC-nek, inkább a szoftveralapú adatközpont egyes implementációs stratégiáiról van szó.

Tulajdonképpen az összes, alkalmazások futtatásához szükséges erőforrás és tudáskészlet konvergenciája a cél. A hiperkonvergens infrastruktúra üzemeltetéséhez nincs szükség különleges szakértelemre. Az erőforrások teljes stackként rendelkezésre állnak, melyek gyorsan és könnyen kioszthatók a vállalati alkalmazások számára. Ez a hozzárendelés ráadásul nem kőbe vésett módon történik, terheléstől függően növelhető, vagy akár teljesen vissza is vehető a nem használt számítási, hálózati, adattárolási kapacitás.

Piaci szereplők

A Nutanix Acropolis modellje node-alapú, amely a kiszolgálók hagyományos szerepkörét nyújtja. A Nutanix Bibliában maga a vállalat is elismeri, hogy modellje alapvetően a számítási és a tárolási kapacitást kombinálja. Ezzel szemben más megoldások – például a Cisco HyperFlex – magukban foglalják a hálózati feladatok ellátását is.

A Dell által felvásárolt EMC HCI node-jainak legfrissebb implentációjában, a VxRailben a Dell EMC gondosan alkalmazza a szoftveralapú tároló (software-defined storage, SDS) használatát biztosító absztrakciós réteget. Ennek, a vállalat hiperkonvergens infrastruktúráért felelős részlegének termékmenedzsmentjével foglalkozó alelnöke, Chad Dunn szerint, minden valódi HCI platform alapvető elemének kell lennie.

A Cisco HyperFlex modellje kihasználja a vállalat hálózatban való több évtizedes tapasztalatát. Az absztrakciós rétegek behozatalával kiiktatja az egyes elemeket összekapcsoló és együttműködésüket korlátozó függőségeket. A platform harmadik generációjával pedig megjelenik a közkedvelt Kubernetes konténteres menedzsmentplatform használatának lehetősége a Cisco Container Platformja mellett. Mind All-Flash, mind Hybrid (Flash + HDD) változatban elérhető, ráadásul a gyártó megszokott egységes on-premise és felhőalapú menedzsment platformjába is integrálásra került.

A HPE SimpliVity megoldása a vállalati IT infrastruktúrát és fejlett adatszolgáltatásokat ötvözi egy egyszerű, integrált flash rendszerbe, a hagyományos és nyilvános felhő szolgáltatásokhoz képest alacsonyabb költségszinten. Virtuálisgép-menedzsment és mobilitás, beépített backup és katasztrófahelyreállítási szolgáltatások jellemzik a Hewlett Packard Enterprise HCI platformját.

A technika készen áll, már csak használni kellene

Napjainkban nem számítanak már újdonságnak a hiperkonvergens megoldások, de kétségtelen, hogy még közel sem beszélhetünk teljesen kiforrott környezetről. Jelenleg a fő kérdés az, hogy a tesztprojektek utáni, éles adatokkal dolgozó, kritikus fontosságú rendszereket merik-e futtatni rajtuk az ügyfelek. Bátorságukat növelendő, a gyártók a HCI megbízhatóságát garantáló tanúsítványok beszerzésére koncentrálják erőforrásaikat.

A tapasztalatok alapján azonban nem nagy kockázat megjósolni, hogy a hiperkonvergens megoldások jelentik a jövőt. Becslések szerint 2019-ben az új értékesítések számának tekintetében a HCI megoldások beérik a konvergens platformokat. Mindeközben pedig a hagyományos adatközponti outsourcing iránti kereslet csökkenőfélben van. Míg 2016-ban világszerte összesen 55,1 milliárd dollárt költöttek ilyen projektekre, addig 2020-ban ez "mindössze" 45,2 milliárd dollár lesz, olvasható a Gartner jelentésében.

Cloud & big data

Tervezni kezdik az óriási, űrhajósok generációit szállító hajókat

A legközelebbi exobolygók is csak több száz vagy ezer év alatt lesznek megközelíthetők, ami különféle kérdések egész sorát veti majd fel az utazás fizikai megvalósításán túl is.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.