Elkészült a The Machine projekt újabb prototípusa. Az Amerikai Kongresszusi Könyvtár teljes könyvállományának ötszörösét képes egyben kezelni.

Tavaly év végén azt tervezte a HPE, hogy már az idén piacra kerülhet a The Machine projekt szupergyors, memóriaalapú gépe, amely gazdaságos és rugalmasan skálázható megoldást adna a nagy mennyiségű adatok feldolgozására. A HPE kutatási projektje arra a problémára keres hathatós megoldást, hogy kiküszöbölje az adatközpontok adatátviteli korlátait.

Egyelőre azonban csak egy újabb prototípusig jutott a projekt. Kedden mutatták be a vállalat újabb szupergyors gépét, amely 160 terabájt memória köré épül. A HPE szerint a gép több adatot képes kezelni, mint bármely hasonló rendszer a világon. Kapacitását azzal jellemezték, hogy a világ legnagyobb könyvtára, a több mint 33 millió kötetet őrző Amerikai Kongresszusi Könyvtár teljes könyvállományában lévő információk ötszörösét képes egyben kezelni.

Ez lesz a big data korszak számítógépe

A The Machine koncepciója arra keresi a megoldást, hogy miként lehet olyan számítógép-architektúrát építeni, amely igazodik a big data korszakhoz. A HPE állítása szerint a single-memory rendszerű gép abban jobb például egy adatközpontnál – amely lényegében korlátlan számítási kapacitást képes nyújtani –, hogy kiküszöböli az adatközpontok egyik szűk keresztmetszetét, az adatátviteli sávszélesség korlátait.

A gép központi eleme itt nem a processzor, hanem a memória, az architektúra annak van alárendelve. A hagyományos számítógép-architektúrában a tároló (merevelemez, flash memória), a memória és a feldolgozó egység (CPU) közötti kapcsolódások lassítják a feldolgozás folyamatát, amit a The Machine próbál kiküszöbölni.

A 160 terabájtos gép 40 fizikai node-ból áll, melyek között egy nagy teljesítményű protokollon biztosítja a kapcsolatot. A nagy teljesítményű adatátvitelt optikai kábelek is biztosítják. A feldolgozó egység a Cavium második generációs, ARM-alapú 64 bites dual socket ThunderX2 SoC (System on a Chip) processzora. A gép operációs rendszere pedig egy a The Machine-re optimalizált Linux.

A HPE azt ígéri, hogy a rendszer memóriája lényegében korlátlanul skálázható exabájt, sőt yottabájt méretig (1 yottabájt = 10 24 bájt vagy 1000 milliárd terabájt).

A gép nem minden

A The Machine projektnek csak az egyik – bár kétségtelenül jelenleg a legfontosabb és talán leglátványosabb – eredménye a hardver. Emellett azonban már dolgoznak a szoftveres háttér biztosításán is. Dolgoznak például az új architektúrához illeszkedő adatmenedzsment-eszközökön és programozási keretrendszeren. Ezen belül készül többek között egy új, szupergyors adatbázismotor, egy hibatűrő programozási modell. A projekt köré a HPE próbál közösséget is toborozni, ezért a fejlesztések egy jelentős része eleve nyílt forráskódú.
 


Szakértők abban egyetértenek, hogy a HPE kezdeményezése komoly előrelépés a high performance computing (HPC) területén. A HPC fontos irány, hiszen a komplex problémák (big data, analitika, mesterséges intelligencia, deep learning stb.) megoldásában egyre inkább fontossá válik a feldolgozás sebessége. Nem véletlen, hogy többen is rástartoltak erre a területre.

Annak idején hasonló megfontolásokból mozdult el például az Oracle és az SAP az in-memory technológia felé. Az Intel bő másfél éve jelentette be a 3D Xpoint technológiát, amellyel a hagyományos DRAM-nál tízszer nagyobb adatsűrűséget és hosszú élettartamot ígér. (Az első 3D Xpoint-alapú modell, az Intel Optane SSD egyébként idén márciusban jelent meg, és a gyártó ígérete szerint akár napi 30 teleírást is elvisel.)

Patrick Moorhead, a Moor Insights & Strategy elemzője azt nyilatkozta a VetureBeatnek, hogy szerinte még kell 3-5 év, hogy a különböző megközelítések beérjenek. A Hyperion Research elemzője, Bob Sorenson szintén nagyon fontos eredménynek tartja azt, amit a HPE a The Machine projekttel elért, bár az szerinte még nem látható, hogy a piacon mennyire lesz életképes.

Cloud & big data

Nvidia: virtuális munkaállomások a GPU-k révén

Új szoftverével a vállalat operációs rendszerek virtualizációját biztosítja a Tesla grafikus processzorokat tartalmazó szerverek tulajdonosainak.
 
Virtualizációval teszik még hatékonyabbá az informatikai környezetet a szoftveresen meghatározott adatközpontok. Alacsonyabb költségek, magasabb színvonalú IT – egyre többen fordulnak az SDDC technológia felé.

a melléklet támogatója az ArubaCloud

Hirdetés

Pénztárcakímélő zöld adatközpont: Global Cloud Data Center

Az Aruba Cloud is a megújuló energiára voksolt. Legújabb, Milánó mellett felépített adatközpontja az eddigi legnagyobb – és egyben a legzöldebb. De miben is más, mint a többi?

A koncentrált erőforrások kockázatai is koncentráltan jelentkeznek. Az informatikai szolgáltatóknak, felhős cégeknek érdemes lenne körülnézniük a közműszolgáltatóknál, hogyan kezelik ezt a problémát.

Sikeremberektől is tanultak a CIO-k

a Bitport
a Vezető Informatikusok Szövetségének
médiapartnere

Hogyan forradalmasítja a számítástechnikát a nanotechnológia? Majzik Zsolt kutató (IBM Research-Zürich) írása. Vigyázat, mély víz! Ha elakadt, kattintson a linkekre magyarázatért.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthetően, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport ötödik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2017 Bitport.hu Média Kft. Minden jog fenntartva.