Elkészült a The Machine projekt újabb prototípusa. Az Amerikai Kongresszusi Könyvtár teljes könyvállományának ötszörösét képes egyben kezelni.

Tavaly év végén azt tervezte a HPE, hogy már az idén piacra kerülhet a The Machine projekt szupergyors, memóriaalapú gépe, amely gazdaságos és rugalmasan skálázható megoldást adna a nagy mennyiségű adatok feldolgozására. A HPE kutatási projektje arra a problémára keres hathatós megoldást, hogy kiküszöbölje az adatközpontok adatátviteli korlátait.

Egyelőre azonban csak egy újabb prototípusig jutott a projekt. Kedden mutatták be a vállalat újabb szupergyors gépét, amely 160 terabájt memória köré épül. A HPE szerint a gép több adatot képes kezelni, mint bármely hasonló rendszer a világon. Kapacitását azzal jellemezték, hogy a világ legnagyobb könyvtára, a több mint 33 millió kötetet őrző Amerikai Kongresszusi Könyvtár teljes könyvállományában lévő információk ötszörösét képes egyben kezelni.

Ez lesz a big data korszak számítógépe

A The Machine koncepciója arra keresi a megoldást, hogy miként lehet olyan számítógép-architektúrát építeni, amely igazodik a big data korszakhoz. A HPE állítása szerint a single-memory rendszerű gép abban jobb például egy adatközpontnál – amely lényegében korlátlan számítási kapacitást képes nyújtani –, hogy kiküszöböli az adatközpontok egyik szűk keresztmetszetét, az adatátviteli sávszélesség korlátait.

A gép központi eleme itt nem a processzor, hanem a memória, az architektúra annak van alárendelve. A hagyományos számítógép-architektúrában a tároló (merevelemez, flash memória), a memória és a feldolgozó egység (CPU) közötti kapcsolódások lassítják a feldolgozás folyamatát, amit a The Machine próbál kiküszöbölni.

A 160 terabájtos gép 40 fizikai node-ból áll, melyek között egy nagy teljesítményű protokollon biztosítja a kapcsolatot. A nagy teljesítményű adatátvitelt optikai kábelek is biztosítják. A feldolgozó egység a Cavium második generációs, ARM-alapú 64 bites dual socket ThunderX2 SoC (System on a Chip) processzora. A gép operációs rendszere pedig egy a The Machine-re optimalizált Linux.

A HPE azt ígéri, hogy a rendszer memóriája lényegében korlátlanul skálázható exabájt, sőt yottabájt méretig (1 yottabájt = 10 24 bájt vagy 1000 milliárd terabájt).

A gép nem minden

A The Machine projektnek csak az egyik – bár kétségtelenül jelenleg a legfontosabb és talán leglátványosabb – eredménye a hardver. Emellett azonban már dolgoznak a szoftveres háttér biztosításán is. Dolgoznak például az új architektúrához illeszkedő adatmenedzsment-eszközökön és programozási keretrendszeren. Ezen belül készül többek között egy új, szupergyors adatbázismotor, egy hibatűrő programozási modell. A projekt köré a HPE próbál közösséget is toborozni, ezért a fejlesztések egy jelentős része eleve nyílt forráskódú.
 


Szakértők abban egyetértenek, hogy a HPE kezdeményezése komoly előrelépés a high performance computing (HPC) területén. A HPC fontos irány, hiszen a komplex problémák (big data, analitika, mesterséges intelligencia, deep learning stb.) megoldásában egyre inkább fontossá válik a feldolgozás sebessége. Nem véletlen, hogy többen is rástartoltak erre a területre.

Annak idején hasonló megfontolásokból mozdult el például az Oracle és az SAP az in-memory technológia felé. Az Intel bő másfél éve jelentette be a 3D Xpoint technológiát, amellyel a hagyományos DRAM-nál tízszer nagyobb adatsűrűséget és hosszú élettartamot ígér. (Az első 3D Xpoint-alapú modell, az Intel Optane SSD egyébként idén márciusban jelent meg, és a gyártó ígérete szerint akár napi 30 teleírást is elvisel.)

Patrick Moorhead, a Moor Insights & Strategy elemzője azt nyilatkozta a VetureBeatnek, hogy szerinte még kell 3-5 év, hogy a különböző megközelítések beérjenek. A Hyperion Research elemzője, Bob Sorenson szintén nagyon fontos eredménynek tartja azt, amit a HPE a The Machine projekttel elért, bár az szerinte még nem látható, hogy a piacon mennyire lesz életképes.

Cloud & big data

Nemsokára többet isznak majd a kínai adatközpontok, mint Dél-Korea lakossága

A generatív mesterséges intelligencia világszerte megtolta az adatközponti fejlesztéseket, a szerverek hűtésére használt vízből azonban sehol sem lett több.
 
Hirdetés

Adathelyreállítás pillanatok alatt

A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.

A válasz egyszerű: arról függ, hogy hol, hogyan és milyen szabályozásoknak és üzleti elvárásoknak megfelelően tároljuk az információt. A lényeg azonban a részletekben rejlik.

a melléklet támogatója az EURO ONE Számítástechnikai Zrt.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.