Nincs elég magasan képzett szakember ahhoz, hogy ne az automatizálás jelentse a következő logikus továbblépési pontot az adatközpontokban. Egy idő után azonban fölöslegessé is válik az operátorok többsége...

Az internet hajnalán kicsik és egyszerűek voltak az adatközpontok, napjaink szerverparkjai viszont nem ritkán sok ezer négyzetméternyi területen terpeszkednek el, rack szekrények tízezreiben sorakoznak a szerverek. Ráadásul az új létesítmények a magas energiaköltségek mérséklése miatt az utóbbi években egyre távolabb kerültek a sűrűn lakott területektől, ami megnehezíti a megfelelő mennyiségű és minőségű munkaerő alkalmazását.

Ez, a hatékonyságnövelés folyamatos kényszerével karöltve vezetett a mind magasabb szintű automatizáláshoz. A nyilvános felhőszolgáltatások – mint az Amazon Web Services vagy a Microsoft Azure – mögött álló vállalatok ezért arányaiban egyre kevesebb, magas tudással bíró adatközponti mérnököt vesznek fel. Ezt a szakembergárdát már nem ritkán felülmúlja a biztonsági feladatokért felelős és az alacsonyabb szintű ismereteket igénylő feladatokat, például hardveres telepítéseket ellátó személyzet száma.

Ahhoz, hogy kevesebb szakemberrel, de továbbra is nagy biztonsággal meg lehessen oldani mind több és több kiszolgáló és a köréjük épített rendszerek, mint például a hűtés felügyeletét, minden korábbinál jobban kell az érzékelők szolgáltatta adatokra támaszkodni. Ugyanakkor, habár az általuk generált rengeteg információ elemzése sokat segít, az emberek számára triviális problémák felismerésében, mint a vízcsöpögés vagy a megszokottól eltérő hangot kiadó hűtőventillátor, még nem megfelelőek.

Gépi tanulással a proaktivitásért

Éppen ezért pusztán szenzorok tömegénél többre van szüksége egy modern adatközpontnak arra, hogy hatékonyabb lehessen üzemeltetése. Intelligenssé kell tenni a felügyeleti rendszert, olyan alkalmazásokat kell ráültetni az érzékelők adataira, amivel a puszta adatösszegzésen túl mélyebb következtetések is levonhatók. Az ezekre ráeresztett gépi tanulással aztán a monitorozó rendszer sokkal okosabbá: prediktívebbé és proaktívabbá válhat.

Tulajdonképpen bizonyos tekintetben az emberi észlelés, információfeldolgozás és döntéshozatal digitalizálása zajlik napjaink adatközpontjaiban. Az algoritmusok fejlesztésével, a külön-külön kevésbé hatékony emberi és gépi tudás ötvözésével egy folyamatosan magas szinten üzemelő adatközponti felügyeleti rendszer állítható elő. Ez nem csak reagálni képes a kialakuló krízishelyzetekre, hanem azok bekövetkeztét egyrészt nagy pontossággal meg is tudja jósolni, másrészt ennek ismeretében még a probléma felbukkanása előtt javaslatot tehet a beavatkozásra (és/vagy el is végzi azt).

Ez kevesebb leállást, szolgáltatás-kiesést eredményez, a kapacitásméretezés hatékonyságnövelésével pedig a várható kockázatok mérséklésében is szerepet vállal.
 


Előre látni a jövőt

Prediktív elemzés alkalmazásával lehet megtenni az első lépést ebben az irányban. Az adatközponti infrastruktúra menedzsment (DCIM, data center infrastructure management) kibővítéséről van szó: gépi tanulással a rendszer felvértezhető a különböző változók közötti kapcsolatok meghatározására. Egy rack hőmérséklete, a hűtőegység beállítása, a hűtési kapacitás és -redundancia, felhasznált energia és meghibásodási kockázat egymásra hatását fel lehet térképezni, és az ezen adatokban bekövetkező változásokból következtetéseket levonni.

A hűtőegységek vezérlésével például szabályozható a hűtés, egyes elemei ki- és bekapcsolhatók, teljesítményük változtatható. Ezzel nem csak a temperálási költségek optimalizálhatók, hanem annak hatásfoka is. Sőt, kellően sok adat esetén olyan eseményeket is meg lehet jósolni, mint például egy operátori beavatkozás várható hatása, például egy hűtőegység emberi lekapcsolásának következményei.

Ahhoz, hogy mindez hatékonyan mehessen végbe, szükség van egy, a korábbi eseményeket nyomon követni képes műszerfalra, a múltban történt karbantartási feladatok részletes elemzésének képességére. Ezzel nem csak a felmerülő incidensek kezelése automatizálható, hanem akár tervezési, üzemeltetési hibák is kiszűrhetők. Ezek a feladatok napjainkban még zömmel kézi módszerrel, az emberi tapasztalatokra alapozva történnek; gépi tanulással azonban a DCIM rendszerek felvértezhetők a szükséges tudással, kvázi emberibbé tehetők.

Ember és gép együtt dolgozik

Ilyen, egymást tanító rendszerekre szolgáltat példát a San Jose-ban székelő LitBit. A szerverközpont mesterséges intelligenciája lehetővé teszi az operátorok számára, hogy gépi tanulási technikák alkalmazásával saját „munkatársat” építsenek, képezzenek és finomhangolják tudásukat. Ezek aztán a kialakuló eseményekre reagálnak, értesítik alkotójukat vagy, kellően sok tanulást követően automatizáltan, saját hatáskörben cselekednek.

A LitBit rendszerének kulcsa az úgynevezett támogatott tanulás. Ez lehetővé teszi, hogy egy korábban ismeretlen, a normálistól eltérő esemény észlelésekor, az operátor értesítését követően ő új, a problémát kezelni képes szabályrendszert hozhasson létre (kvázi beprogramozza a teendők típusát és sorrendjét). Ezzel a készlettel a jövőben aztán a felügyeleti rendszer elháríthatja az akkor már ismert jelenséget – anélkül, hogy ismét riasztania kellene az adatközpontra felügyelő embereket.

A startup felügyelt felhőszolgáltatása képes a felhasználók – anonimizált – tapasztalatainak felhasználásával összetettebb és pontosabb modellek készítésére. Ügyfeleinek egy része megtartja magának a kiképzett modellt, saját, titkos szellemi termékének tekintve azt, míg mások értékesíthetik jól sikerült, hatékony modelljeiket, külön bevételre téve szert ezáltal.

Ez már csak azért is üdvözlendő cél, mert az adatközpont felügyelete során szerzett adatok értéke sokszorozódik, amikor azok kiértékelése nem egyesével, hanem egymás kontextusában vizsgálva történik. Nagyméretű, számos ügyféltől származó adatkészletekre ráeresztett algoritmusokkal olyan dolgokat lehet egészen pontosan meghatározni, mint például az eszközök meghibásodásának vagy a hűtési küszöbérték elérésének várható ideje.

Meddig lesz szükség humán erőforrásra?

A fentiekből logikusan következne, hogy előbb-utóbb minimalizálható lesz az emberi munkaerő az adatközpontokban, az öntanuló rendszerek szépen sorban minden, korábban csak fajunk megfelelően képzett tagjai által elvégezhető feladatot átvesznek. A helyzet azonban az, hogy rövid távon erre semmi esély nem mutatkozik. A terület annyira gyerekcipőben jár jelenleg, hogy az ezen a téren várható gépi dominancia kialakulása még hosszú évekig fog tartani.

Jelenleg már az is nagy sikernek számít, ha a munkaidőn túl, korlátozott emberi jelenlét mellett megfelelően helyt állnak a gépi tanulással kiképzett algoritmusok. Mostani ismereteink szerint nem az operátorok közvetlen kiváltása a cél, hanem egy olyan eszköz létrehozása, ami csökkenti az alkalmazottak terhelését, és lehetővé teszi munkaidejük más, a gépek által is elvégezhető feladatoktól eltérő tevékenység céljaiból való kihasználását.
 

Egy szivárgó vízvezeték akusztikus képe


Persze kétségeink ne legyenek, a terület robbanásszerűen fejlődik, ez a finom egyensúly a gépi és emberi munkaerő között néhány évtized távlatában már közel sem biztos, hogy fennmarad. Ugyanakkor ezzel nem csupán az adatközpontokban dolgozóknak kell majd szembenézniük. Ehhez még csak nem is kell messze menni az IT-től: a Microsoft Research például nemrég kezdett együttműködésbe a Sierra Systems-szel. Olaj- és vízvezetékek sérüléseit észlelni képes gépi tanulásra alapuló hangelemzőt fejlesztenek, amik kiiktathatják az infrastruktúrák emberi erővel történő rendszeres átvizsgálását.

Visszatérve az adatközpontokhoz: a mesterséges intelligenciára alapuló felügyelettől még nem szabad azonnali eredményeket várni. A technológia új, még a fejlesztési fázis elején jár, és szó szerint sok tanulásra van még szüksége. Emellett még több szenzor telepítését igényelheti, olyanokét, melyekre ma még nem is gondolnánk - például akusztikus érzékelőket a szokatlan rezgések észleléséhez. Gyors terjedésüket az is gátolja, hogy hiába állnak rendelkezésre a szükséges adatmodellek, azok pillanatok alatt nem igazíthatók hozzá az egyéni igényekhez, eszközkészlethez, elvárásokhoz.

A mesterséges intelligenciát alkalmazó rendszerek képzése időbe kerül, csakúgy, mint egy újonnan felvett operátor helyi jellemzőkkel való megismertetése. Idővel azonban a felhőben már futó gépi tanulási eszközökhöz hasonlóan komoly mértékben járulnak majd hozzá az adatközpontok üzemeltetéséhez.

Cloud & big data

A testkamerák felvételei alapján készítene rendőrségi jelentéseket az MI

Pontosabban a Draft One nevű MI-alkalmazás fejlesztője, aki szerint jó ötlet rábízni az ilyesmit a totál megbízhatatlan mesterséges intelligenciára.
 
Hirdetés

Adathelyreállítás pillanatok alatt

A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.

A válasz egyszerű: arról függ, hogy hol, hogyan és milyen szabályozásoknak és üzleti elvárásoknak megfelelően tároljuk az információt. A lényeg azonban a részletekben rejlik.

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.