Ma már a felkészült nagyvállalatok jelentős része Peter Krogh fotós elveire építi adatai védelmét.

Nem mai találmány az adatvédelem. Amióta létezik információ, azóta foglalkozunk a megőrzésével is, elsősorban valamilyen biztonsági mentés, backup formájában. A szóban mással megosztott információ ugyanúgy ezt a célt szolgálta, mint a középkori kolostorok másolóműhelyeiben készült kódexmásolatok. A digitális transzformáció és az adatalapú működés azonban mindennél fontosabbá tette az adatvédelmet. Hatékony adatvédelmi stratégiát felépíteni azonban egyáltalán nem egyszerű.

A digitális átalakulásban erősen érdekelt IT-megoldásszállítók unalomig ismételt közhelye, hogy a transzformáció nem valósítható meg az IT átalakítása nélkül. Fel kell számolni a kézi vezérlésű, silószerűen működő öröklött technológiákat, racionalizálni a folyamatokat, de fontos szempont az automatizáció, a méretarányosság, a skálázhatóság, a gazdaságos üzemeltetés – összességében: a működési sebesség felpörgetése. Ezek konkrét technológiákra is lefordíthatók: szoftveresen definiált hálózatok és tárolás, virtualizáció, skálázható és konvergens/hiperkonvergens infrastruktúra, all-flash tárolás – és nem utolsósorban: modern adatvédelmi megoldások.

Utóbbi megvalósítása komoly kihívás. Ma már ugyanis a vállalatoknál rendszerint komplex és heterogén (hibrid infrastruktúra, multicloud környezet stb.) infrastruktúrára kell megalkotni az átfogó, a biztonsági mentéstől a rendelkezésre álláson át az archiválásig terjedő adatvédelmi stratégiát. A komplexitás érvényesül abban is, hogy a stratégia minden elemét a munkaterhelés követelményei és a futtatás vagy a hozzáférés módja alapján kell validálni kell, hiszen egyáltalán nem mindegy, hogy végponti eszközről, on-premise vagy hibrid környezetről, esetleg SaaS és IaaS szolgáltatásról van-e szó.

Az adatvédelemnek ez a komplex megközelítése évek óta elfogadott. Az ESG Research egy még a pandémia előtt készített globális felméréséből (PDF) az derült ki, hogy a digitális transzformáció szempontjából fejlettnek minősíthető vállalatok többsége olyan adatvédelmi rendszerekbe fektetne, melyek a végpontoktól a felhőig minden környezetre átfogó megoldást adnak.

2018 tavaszán élesedett a GDPR, az Európai Unió általános adatvédelmi rendelete, amely még inkább a gondolkodás középpontjába helyezte az adatvédelem komplex megközelítését. Egy tavaly kiadott ISACA-tanulmány szerint a GDPR a szervezetek jelentős részét kényszerítette arra, hogy üzleti stratégiájukhoz igazodó, fókuszált adatvédelmi stratégiát dolgozzanak ki.

A stratégia nem (csak) technológiai kérdés

Ha nagyon egyszerűen akarjuk megragadni, akkor az adatvédelmi stratégia egyetlen célja, hogy minimalizálja azt az üzleti veszteséget, amelyet az adatok integritásának és elérhetőségének hiánya okoz. Egy ilyen stratégia kialakítása számos fontos részlépésből áll az adatokra vonatkozó kockázatelemzéstől az adatéletciklus-menedzsmenten, az adatvesztés (adatszivárgás, ransomware-támadás stb.) esélyét csökkentő elemeken és tároláson át a katasztrófa utáni helyreállításig. A fontosabbakat durva közelítéssel három főbb pontban lehet összefoglalni.

1. Audit: az első lépés egy átfogó felmérés, amely kiterjed a biztonsági rendszerekre (pl. sebezhetőségek felderítése), a titkosításra, az adattárolásra, az azonosítás- és hozzáférés-menedzsmentre, valamint a használt fizikai eszközökre. (Még a végponti eszközök, desktop PC-k, laptopok kora is hatással lehet arra, hogy milyen módon és költséggel lehet hatékony adatvédelmi stratégiát kialakítani.)

2. Adatok osztályozása: fel kell mérni az adatvagyont, majd üzleti és compliance szempontjából meg kell határozni az egyes adatok érzékenységét. Ez alapján végezhető el a kockázatelemzés, határozhatók meg a hozzáférési szintek, a titkosítási követelmények, az adatéletciklus-kezeléssel kapcsolatos követelmények stb. Meghatározható az adott szervezet számára elfogadható biztonsági szint, és ahhoz igazítva lehet kialakítani a biztonsági házirendet, pl. az engedélyezési és hitelesítési szabályokat.

3. Az adatvédelem architektúra (és technológia): a hálózati szintű, az alkalmazásszintű, az adatbázis-szintű, tárhelyszintű adatvédelemmel szembeni követelmények és a megvalósításhoz szükséges technológiák meghatározása.

Csak utána jöhet az adatbiztonság egyik sarokköveként a biztonsági mentési rendszer felépítése.

3-2-1 vagy 3-2-1-1? Esetleg 3-2-1-1-0?

Mielőtt azonban kiírnánk a tendert a backup megoldásra, dönteni kell még egy elvi kérdésben: milyen adatmentési modellt tartunk kielégítőnek? Bármilyen meglepő, de a felkészült vállalatok többsége e téren egy amerikai fotós útmutatásait követi. Peter Krogh könyve, a The DAM Book – Digital Asset Management for Photographers, melynek első kiadása 2006-ban jelent meg, többek között a digitális fotóarchívumok építésével is foglalkozott. Krogh azt javasolja a kollégáinak, hogy ha valaki biztonságban szeretné tudni digitális fotóit, készítsen róluk 3 másolatot, azokat legalább két eltérő típusú adathordozón tárolja (pl. merevlemez és szalag vagy CF tároló és felhő stb.), és egy példány mindig legyen offsite, azaz fizikailag távol a másik két másolattól.

Ezt az egyszerű, ám logikus backup-modellt hamar felfedezte magának a vállalati szféra. A két eltérő, de egy helyszínen lévő backup-példányból biztosíthatják a gyors helyreállítást, míg azok megsemmisülése, sérülése esetén (tűz, természeti katasztrófa) még mindig ott van a harmadik, távoli helyszínen tárolt példány.

Az azóta eltelt több mint másfél évtized azonban több olyan változást hozott, amely miatt az elv finomításra szorul. A modellt az IDC gondolta tovább, és a ransomware-ek jelentette kihívások miatt új elemmel egészíti ki Krogh koncepcióját : a 3-2-1-1-es modellben az offsite másolatával szemben új követelmény a légréses zárás (offline), valamint a megváltoztathatatlanság (immutable). Az immutable mentés olyan objektum, amelynek struktúrája és tulajdonságai rögzítettek, értékei pedig nem változtathatók meg. A zsarolóvírus elleni sikeres védelem kulcsa ugyanis az, ha az adatok egyszer írható, de többször olvasható formátumban tárolják.
 

Egy fejlett backup-modell
 

A modell tovább bontható, szétválasztható az offsite és az immutable másolat, és csak az utóbbi tárolódik légréses szigeteléssel (offline), illetve külön be lehet iktatni egy hibamentességi kritériumot (zero error) is – ezt nevezik 3-2-1-1-0 modellnek, ahol a 0 jelzi a hibamentességet. Ennek teljesítéséhez azonban az adatokat rendszeresen kell ellenőrizni, és a hibákat észleléskor javítani, ami persze újabb biztonsági intézkedések beépítésével jár.

Már csak az a kérdés, hogy ezt milyen eszközökkel lehet megvalósítani. Összeállításunk következő részében azt is körüljárjuk.
 

Ez a cikk független szerkesztőségi tartalom, mely a Tech Data támogatásával készült. Részletek »

 

Biztonság

Forbes: egyelőre riasztóan gagyi a Meta metaverzuma

A Horizon Worlds világát népszerűsítő képek és demók eddig kiábrándítóan festenek, és az sem világos, hogy a Meta vezetői ezt ugyanúgy érzékelnék, mint az egyszeri felhasználók.
 
A felhő térfoglalása és a ransomware-támadások elszaporodása sok szervezetet rákényszerít, hogy újratervezze a mentési és helyreállítási infrastruktúráját.
A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Az EU Tanácsa szerint összeegyeztethető a backdoor és a biztonság. Az ötlet alapjaiban hibás. Pfeiffer Szilárd fejlesztő, IT-biztonsági szakértő írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2022 Bitport.hu Média Kft. Minden jog fenntartva.