Tavaly év végén azt tervezte a HPE, hogy már az idén piacra kerülhet a The Machine projekt szupergyors, memóriaalapú gépe, amely gazdaságos és rugalmasan skálázható megoldást adna a nagy mennyiségű adatok feldolgozására. A HPE kutatási projektje arra a problémára keres hathatós megoldást, hogy kiküszöbölje az adatközpontok adatátviteli korlátait.
Egyelőre azonban csak egy újabb prototípusig jutott a projekt. Kedden mutatták be a vállalat újabb szupergyors gépét, amely 160 terabájt memória köré épül. A HPE szerint a gép több adatot képes kezelni, mint bármely hasonló rendszer a világon. Kapacitását azzal jellemezték, hogy a világ legnagyobb könyvtára, a több mint 33 millió kötetet őrző Amerikai Kongresszusi Könyvtár teljes könyvállományában lévő információk ötszörösét képes egyben kezelni.
Ez lesz a big data korszak számítógépe
A The Machine koncepciója arra keresi a megoldást, hogy miként lehet olyan számítógép-architektúrát építeni, amely igazodik a big data korszakhoz. A HPE állítása szerint a single-memory rendszerű gép abban jobb például egy adatközpontnál – amely lényegében korlátlan számítási kapacitást képes nyújtani –, hogy kiküszöböli az adatközpontok egyik szűk keresztmetszetét, az adatátviteli sávszélesség korlátait.
A gép központi eleme itt nem a processzor, hanem a memória, az architektúra annak van alárendelve. A hagyományos számítógép-architektúrában a tároló (merevelemez, flash memória), a memória és a feldolgozó egység (CPU) közötti kapcsolódások lassítják a feldolgozás folyamatát, amit a The Machine próbál kiküszöbölni.
A 160 terabájtos gép 40 fizikai node-ból áll, melyek között egy nagy teljesítményű protokollon biztosítja a kapcsolatot. A nagy teljesítményű adatátvitelt optikai kábelek is biztosítják. A feldolgozó egység a Cavium második generációs, ARM-alapú 64 bites dual socket ThunderX2 SoC (System on a Chip) processzora. A gép operációs rendszere pedig egy a The Machine-re optimalizált Linux.
A HPE azt ígéri, hogy a rendszer memóriája lényegében korlátlanul skálázható exabájt, sőt yottabájt méretig (1 yottabájt = 10 24 bájt vagy 1000 milliárd terabájt).
A gép nem minden
A The Machine projektnek csak az egyik – bár kétségtelenül jelenleg a legfontosabb és talán leglátványosabb – eredménye a hardver. Emellett azonban már dolgoznak a szoftveres háttér biztosításán is. Dolgoznak például az új architektúrához illeszkedő adatmenedzsment-eszközökön és programozási keretrendszeren. Ezen belül készül többek között egy új, szupergyors adatbázismotor, egy hibatűrő programozási modell. A projekt köré a HPE próbál közösséget is toborozni, ezért a fejlesztések egy jelentős része eleve nyílt forráskódú.
Szakértők abban egyetértenek, hogy a HPE kezdeményezése komoly előrelépés a high performance computing (HPC) területén. A HPC fontos irány, hiszen a komplex problémák (big data, analitika, mesterséges intelligencia, deep learning stb.) megoldásában egyre inkább fontossá válik a feldolgozás sebessége. Nem véletlen, hogy többen is rástartoltak erre a területre.
Annak idején hasonló megfontolásokból mozdult el például az Oracle és az SAP az in-memory technológia felé. Az Intel bő másfél éve jelentette be a 3D Xpoint technológiát, amellyel a hagyományos DRAM-nál tízszer nagyobb adatsűrűséget és hosszú élettartamot ígér. (Az első 3D Xpoint-alapú modell, az Intel Optane SSD egyébként idén márciusban jelent meg, és a gyártó ígérete szerint akár napi 30 teleírást is elvisel.)
Patrick Moorhead, a Moor Insights & Strategy elemzője azt nyilatkozta a VetureBeatnek, hogy szerinte még kell 3-5 év, hogy a különböző megközelítések beérjenek. A Hyperion Research elemzője, Bob Sorenson szintén nagyon fontos eredménynek tartja azt, amit a HPE a The Machine projekttel elért, bár az szerinte még nem látható, hogy a piacon mennyire lesz életképes.
Adathelyreállítás pillanatok alatt
A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.
CIO KUTATÁS
TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?
Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »
Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak