Míg az ezredforduló után továbbra is a robusztus, költséghatékonysági szempontokat másodlagosként kezelő és kevésbé rugalmas IT projektek voltak jellemzőek a nagyvállalatoknál, addig a jelen évtizedben egyre inkább előtérbe kerültek a flexibilis, skálázható, magasabb megtérülési mutatókkal bíró megoldások. Az ügyfelekért folytatott versengés egyik fontos eszköze, a digitalizáció ugyanis kikényszeríti a korábbinál jóval rövidebb átfutási – tervezési, telepítési, változtatási – idővel bíró projekteket.
Ennek ideális eszközét a (nyilvános) felhőalapú megoldásokban látták, ám azok hiába kínálnak egyszerű, rugalmas, automatizált és sztenderdizált módszert. Nem elég ugyanis, hogy csupán a használat után kell fizetni, vagyis minimalizálható a befektetési költség. Egy nagyon fontos tényező az összes pozitív tulajdonsággal szemben többet nyom a latban: az adatbiztonság kérdése, vagyis a belső adatok külső szolgáltatóhoz való kihelyezésének problémája.
Határokon belül tartani az adatokat
Közel sem varázsszer a public cloud tehát, ugyanakkor az általa kínált gyors alkalmazkodási képesség elengedhetetlenné vált a digitalizáció egyre gyorsuló üteme miatt. Mind több piaci szereplő irányából merült fel az igény egyfajta "on-premise cloudra", vagyis egy "dobozos adatközpontra". Ezzel pedig elérkeztünk a hiperkonvergens infrastruktúra (hyperconverged infrastructure, HCI) területére, ahol az egyszerűen és távolról menedzselhető, szabványos alapokon nyugvó, skálázható IT-szolgáltatás biztonságos(nak gondolt) keretek között, vállalati tulajdonban érhető el.
Fő célja az információt külső szolgáltató nélkül kezelő rendszernek az adatközponti felügyelet lehető legegyszerűbbre szabása. Tulajdonképpen az alkalmazások és a tranzakciók átviteli rendszerévé válik az infrastruktúra ahelyett, hogy processzorok, hálózati eszközök és memóriatárak összetett hálózataként definiálnák.
Az alkalmazások és a szerverek együtt, egyetlen platformról, az alkalmazások elérhetőségére és működésére fókuszálva felügyeltek. A számítási kapacitás, az állományok tárolása, a memória és a hálózati kapcsolatok közműszerűen, egyesével kezeltek, kapacitáselosztásuk pedig a felhasználói igények függvényében történik a jellemzően virtuális gépekre alapuló hiperkonvergens infrastruktúrában.
A fentiekből következően a HCI felépítése és skálázása során használt szerverek gyakorlatilag építőkockákként biztosítják az erőforráskészletet. Új kiszolgáló, hálózati eszköz telepítésével a rendszerbe kerülő számítási/tárolási/hálózati kapacitás nem válik azonnal dedikálttá; kiosztásuk a felhasználói igények függvényében történik.
Az úgynevezett szoftveralapú adatközpont (software-defined data center, SDDC) mögött álló elképzelés szerint a rendszereknek könnyen és gyorsan konfigurálhatóknak kell lenniük a teljesítménykövetelményeknek megfelelően. Ahelyett, hogy előre drótozottan működne a rendszer, szoftveresen szülessen döntés az erőforrások felhasználásáról. Mindazonáltal a hiperkonvergens infrastruktúrák nem feleltethetők meg egy az egyben az SDDC-nek, inkább a szoftveralapú adatközpont egyes implementációs stratégiáiról van szó.
Tulajdonképpen az összes, alkalmazások futtatásához szükséges erőforrás és tudáskészlet konvergenciája a cél. A hiperkonvergens infrastruktúra üzemeltetéséhez nincs szükség különleges szakértelemre. Az erőforrások teljes stackként rendelkezésre állnak, melyek gyorsan és könnyen kioszthatók a vállalati alkalmazások számára. Ez a hozzárendelés ráadásul nem kőbe vésett módon történik, terheléstől függően növelhető, vagy akár teljesen vissza is vehető a nem használt számítási, hálózati, adattárolási kapacitás.
Piaci szereplők
A Nutanix Acropolis modellje node-alapú, amely a kiszolgálók hagyományos szerepkörét nyújtja. A Nutanix Bibliában maga a vállalat is elismeri, hogy modellje alapvetően a számítási és a tárolási kapacitást kombinálja. Ezzel szemben más megoldások – például a Cisco HyperFlex – magukban foglalják a hálózati feladatok ellátását is.
A Dell által felvásárolt EMC HCI node-jainak legfrissebb implentációjában, a VxRailben a Dell EMC gondosan alkalmazza a szoftveralapú tároló (software-defined storage, SDS) használatát biztosító absztrakciós réteget. Ennek, a vállalat hiperkonvergens infrastruktúráért felelős részlegének termékmenedzsmentjével foglalkozó alelnöke, Chad Dunn szerint, minden valódi HCI platform alapvető elemének kell lennie.
A Cisco HyperFlex modellje kihasználja a vállalat hálózatban való több évtizedes tapasztalatát. Az absztrakciós rétegek behozatalával kiiktatja az egyes elemeket összekapcsoló és együttműködésüket korlátozó függőségeket. A platform harmadik generációjával pedig megjelenik a közkedvelt Kubernetes konténteres menedzsmentplatform használatának lehetősége a Cisco Container Platformja mellett. Mind All-Flash, mind Hybrid (Flash + HDD) változatban elérhető, ráadásul a gyártó megszokott egységes on-premise és felhőalapú menedzsment platformjába is integrálásra került.
A HPE SimpliVity megoldása a vállalati IT infrastruktúrát és fejlett adatszolgáltatásokat ötvözi egy egyszerű, integrált flash rendszerbe, a hagyományos és nyilvános felhő szolgáltatásokhoz képest alacsonyabb költségszinten. Virtuálisgép-menedzsment és mobilitás, beépített backup és katasztrófahelyreállítási szolgáltatások jellemzik a Hewlett Packard Enterprise HCI platformját.
A technika készen áll, már csak használni kellene
Napjainkban nem számítanak már újdonságnak a hiperkonvergens megoldások, de kétségtelen, hogy még közel sem beszélhetünk teljesen kiforrott környezetről. Jelenleg a fő kérdés az, hogy a tesztprojektek utáni, éles adatokkal dolgozó, kritikus fontosságú rendszereket merik-e futtatni rajtuk az ügyfelek. Bátorságukat növelendő, a gyártók a HCI megbízhatóságát garantáló tanúsítványok beszerzésére koncentrálják erőforrásaikat.
A tapasztalatok alapján azonban nem nagy kockázat megjósolni, hogy a hiperkonvergens megoldások jelentik a jövőt. Becslések szerint 2019-ben az új értékesítések számának tekintetében a HCI megoldások beérik a konvergens platformokat. Mindeközben pedig a hagyományos adatközponti outsourcing iránti kereslet csökkenőfélben van. Míg 2016-ban világszerte összesen 55,1 milliárd dollárt költöttek ilyen projektekre, addig 2020-ban ez "mindössze" 45,2 milliárd dollár lesz, olvasható a Gartner jelentésében.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak