Minden erőfeszítésük ellenére az adatközpontok üzemeltetői nem tudták meggyőzni a szervezeteket arról, hogy kritikus fontosságú adataikat ki merjék tenni külső szolgáltatókhoz. A hiperkonvergens megoldások kora végleg pontot tett erre.

Míg az ezredforduló után továbbra is a robusztus, költséghatékonysági szempontokat másodlagosként kezelő és kevésbé rugalmas IT projektek voltak jellemzőek a nagyvállalatoknál, addig a jelen évtizedben egyre inkább előtérbe kerültek a flexibilis, skálázható, magasabb megtérülési mutatókkal bíró megoldások. Az ügyfelekért folytatott versengés egyik fontos eszköze, a digitalizáció ugyanis kikényszeríti a korábbinál jóval rövidebb átfutási – tervezési, telepítési, változtatási – idővel bíró projekteket.

Ennek ideális eszközét a (nyilvános) felhőalapú megoldásokban látták, ám azok hiába kínálnak egyszerű, rugalmas, automatizált és sztenderdizált módszert. Nem elég ugyanis, hogy csupán a használat után kell fizetni, vagyis minimalizálható a befektetési költség. Egy nagyon fontos tényező az összes pozitív tulajdonsággal szemben többet nyom a latban: az adatbiztonság kérdése, vagyis a belső adatok külső szolgáltatóhoz való kihelyezésének problémája.

Határokon belül tartani az adatokat

Közel sem varázsszer a public cloud tehát, ugyanakkor az általa kínált gyors alkalmazkodási képesség elengedhetetlenné vált a digitalizáció egyre gyorsuló üteme miatt. Mind több piaci szereplő irányából merült fel az igény egyfajta "on-premise cloudra", vagyis egy "dobozos adatközpontra". Ezzel pedig elérkeztünk a hiperkonvergens infrastruktúra (hyperconverged infrastructure, HCI) területére, ahol az egyszerűen és távolról menedzselhető, szabványos alapokon nyugvó, skálázható IT-szolgáltatás biztonságos(nak gondolt) keretek között, vállalati tulajdonban érhető el.

Fő célja az információt külső szolgáltató nélkül kezelő rendszernek az adatközponti felügyelet lehető legegyszerűbbre szabása. Tulajdonképpen az alkalmazások és a tranzakciók átviteli rendszerévé válik az infrastruktúra ahelyett, hogy processzorok, hálózati eszközök és memóriatárak összetett hálózataként definiálnák.

Az alkalmazások és a szerverek együtt, egyetlen platformról, az alkalmazások elérhetőségére és működésére fókuszálva felügyeltek. A számítási kapacitás, az állományok tárolása, a memória és a hálózati kapcsolatok közműszerűen, egyesével kezeltek, kapacitáselosztásuk pedig a felhasználói igények függvényében történik a jellemzően virtuális gépekre alapuló hiperkonvergens infrastruktúrában.

A fentiekből következően a HCI felépítése és skálázása során használt szerverek gyakorlatilag építőkockákként biztosítják az erőforráskészletet. Új kiszolgáló, hálózati eszköz telepítésével a rendszerbe kerülő számítási/tárolási/hálózati kapacitás nem válik azonnal dedikálttá; kiosztásuk a felhasználói igények függvényében történik.

Az úgynevezett szoftveralapú adatközpont (software-defined data center, SDDC) mögött álló elképzelés szerint a rendszereknek könnyen és gyorsan konfigurálhatóknak kell lenniük a teljesítménykövetelményeknek megfelelően. Ahelyett, hogy előre drótozottan működne a rendszer, szoftveresen szülessen döntés az erőforrások felhasználásáról. Mindazonáltal a hiperkonvergens infrastruktúrák nem feleltethetők meg egy az egyben az SDDC-nek, inkább a szoftveralapú adatközpont egyes implementációs stratégiáiról van szó.

Tulajdonképpen az összes, alkalmazások futtatásához szükséges erőforrás és tudáskészlet konvergenciája a cél. A hiperkonvergens infrastruktúra üzemeltetéséhez nincs szükség különleges szakértelemre. Az erőforrások teljes stackként rendelkezésre állnak, melyek gyorsan és könnyen kioszthatók a vállalati alkalmazások számára. Ez a hozzárendelés ráadásul nem kőbe vésett módon történik, terheléstől függően növelhető, vagy akár teljesen vissza is vehető a nem használt számítási, hálózati, adattárolási kapacitás.

Piaci szereplők

A Nutanix Acropolis modellje node-alapú, amely a kiszolgálók hagyományos szerepkörét nyújtja. A Nutanix Bibliában maga a vállalat is elismeri, hogy modellje alapvetően a számítási és a tárolási kapacitást kombinálja. Ezzel szemben más megoldások – például a Cisco HyperFlex – magukban foglalják a hálózati feladatok ellátását is.

A Dell által felvásárolt EMC HCI node-jainak legfrissebb implentációjában, a VxRailben a Dell EMC gondosan alkalmazza a szoftveralapú tároló (software-defined storage, SDS) használatát biztosító absztrakciós réteget. Ennek, a vállalat hiperkonvergens infrastruktúráért felelős részlegének termékmenedzsmentjével foglalkozó alelnöke, Chad Dunn szerint, minden valódi HCI platform alapvető elemének kell lennie.

A Cisco HyperFlex modellje kihasználja a vállalat hálózatban való több évtizedes tapasztalatát. Az absztrakciós rétegek behozatalával kiiktatja az egyes elemeket összekapcsoló és együttműködésüket korlátozó függőségeket. A platform harmadik generációjával pedig megjelenik a közkedvelt Kubernetes konténteres menedzsmentplatform használatának lehetősége a Cisco Container Platformja mellett. Mind All-Flash, mind Hybrid (Flash + HDD) változatban elérhető, ráadásul a gyártó megszokott egységes on-premise és felhőalapú menedzsment platformjába is integrálásra került.

A HPE SimpliVity megoldása a vállalati IT infrastruktúrát és fejlett adatszolgáltatásokat ötvözi egy egyszerű, integrált flash rendszerbe, a hagyományos és nyilvános felhő szolgáltatásokhoz képest alacsonyabb költségszinten. Virtuálisgép-menedzsment és mobilitás, beépített backup és katasztrófahelyreállítási szolgáltatások jellemzik a Hewlett Packard Enterprise HCI platformját.

A technika készen áll, már csak használni kellene

Napjainkban nem számítanak már újdonságnak a hiperkonvergens megoldások, de kétségtelen, hogy még közel sem beszélhetünk teljesen kiforrott környezetről. Jelenleg a fő kérdés az, hogy a tesztprojektek utáni, éles adatokkal dolgozó, kritikus fontosságú rendszereket merik-e futtatni rajtuk az ügyfelek. Bátorságukat növelendő, a gyártók a HCI megbízhatóságát garantáló tanúsítványok beszerzésére koncentrálják erőforrásaikat.

A tapasztalatok alapján azonban nem nagy kockázat megjósolni, hogy a hiperkonvergens megoldások jelentik a jövőt. Becslések szerint 2019-ben az új értékesítések számának tekintetében a HCI megoldások beérik a konvergens platformokat. Mindeközben pedig a hagyományos adatközponti outsourcing iránti kereslet csökkenőfélben van. Míg 2016-ban világszerte összesen 55,1 milliárd dollárt költöttek ilyen projektekre, addig 2020-ban ez "mindössze" 45,2 milliárd dollár lesz, olvasható a Gartner jelentésében.

Cloud & big data

Korallbébiket is terelget a gyilkos őrdrón

A Nagy-korallzátonynál járőröző RangerBot kezdetben a tengericsillagok kordában tartására figyelt. Új változata viszont gondozói szerepet is ellát.
 
A hiperkonvergens infrastruktúrák úgy biztosítják a felhő gyorsaságát és rugalmasságát, hogy a bizalmas adatokat nem kell külső szolgáltatóra bízni. A Cisco Hyperflex all-in-one megoldásába pedig már multi-cloud platformok is integrálhatók.

a melléklet támogatója a Cisco Systems

A VISZ éves INFOHajó rendezvényén az agilitás nagyvállalati alkalmazhatósága és tanulhatósága volt az egyik kerekasztal témája. Az ott elhangzottakat gondolta tovább Both András (Idomsoft), a kerekasztal egyik résztvevője.

Ez a nyolc technológia alakítja át a gyártást

a Bitport
a Vezető Informatikusok Szövetségének
médiapartnere

Az Oracle átáll a féléves verzió-életciklusra, és megszünteti az ingyenes támogatást üzleti felhasználóknak. Mire kell felkészülni? Dr. Hegedüs Tamás licencelési tanácsadó (IPR-Insights Hungary) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthetően, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport kilencedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2018 Bitport.hu Média Kft. Minden jog fenntartva.