Az Amazon szerdán jelentette be az Inferentia nevű, a gépi tanulással kapcsolatos folyamatokhoz fejlesztett chipeket, amelyek az MI-algoritmusok inferenciának nevezett folyamatait hivatottak támogatni. Ezzel a vállalat közvetve egy olyan területre merészkedik, amelyen az Intel vagy az Nvidia már évek óta próbálkozik, sőt amely elsődleges profitközpontként szerepel már a gyártók rövid távú terveiben is. Bár az új modellek nem kerülnek kereskedelmi forgalomba, érzékeny kiesést okozhat majd az Amazon eddigi szállítóinak üzletében, ha az Amazon Web Services (AWS) az egyik legnagyobb ügyfelükként elkezdi a saját megoldásait alkalmazni.
Az Inferentia chipekre épülő szolgáltatások jövőre jelennek meg az AWS kínálatában. A Morningstar piackutató becslése szerint az Inferentia chipek által fémjelzett piac forgalma már a 12 milliárd dollárt is megközelti 2021-re. Korábban csak az Intelnek voltak erre a feladatra dedikált termékei, szeptemberben azonban az Nvidia is kijött a maga eszközeivel. A mostani bejelentésre két nappal azután került sor, hogy az Amazon hétfőn az ugyancsak saját tervezésű, de ARM alapú Graviton szerverprocesszorokat is munkába állította, amit a beszámolókban szintén az Intel piaci dominanciáját veszélyeztető lépésként értékelnek.
ARM-processzorok az AWS virtuális gépei mögött
A kísérletezés már az évtized eleje óta zajlik az ARM-alapú szerverek körül, de ahogy arról mi is többször beszámoltunk, a kereskedelmi forgalomban is életképes termékkel egyelőre nem nagyon jött elő senki. Ezt egyrész annak a törvényszerűségnek tulajdonítják, hogy a hardverek sikere azokon a szoftveres környezeteken is múlik, amelyekben azokat elvileg használni fogják, másrészt az architektúrát fejlesztő ARM Holdings rugalmatlanságára is hivatkoznak, ahol állítólag sosem nyújtottak elégséges támogatást a chip- és szervergyártóknak, ami megnehezítette számukra a fajsúlyos üzletek megkötését.
A nagy felhőszolgáltatók között nem az Amazon az egyetlen, amely házi fejlesztésű chipekkel próbálkozik. Google cloud üzletága már 2016-ban előjött a TPU (Tensor Processing Unit) néven futó MI-chipekkel, amelyek mellesleg a vállalat saját MI-szolgáltatásait is hajtják. Az ilyen fejlesztéseket azonban költséges dolognak tartják, nem beszélve a vonatkozó szoftverek elkerülhetetlen testreszabásáról – mindez a Google Cloud árazásában is visszaköszön, ha összehasonlítjuk a TPU-k és mondjuk az Nvidia által gyártott processzorok időarányos díjait.
Viszsatérve az ARM-alapú szerverekre, az Intel az eddigi sikerei nyomán sem dőlhet hátra, hiszen a korábbi kísérletek kudarca nem kis részben a gyártó hatékony fellépésén is múlt, amivel pillanatok alatt lenullázta a konkurencia bármiben is megnyilvánuló versenyelőnyét. Egy másik figyelmeztetés az Amazon november eleji bejelentése, amelynek értelmében az Amazon EC2 (Amazon Elastic Compute Cloud) felhőjében megjelentek az AMD Epyc processzorain futó virtuális gépek. Ez az Intel 10 nanométeres gyártástechnológiára épülő szerverprocesszorainak ismét elcsúsztatott megjelenésével együtt már azt eredményezi, hogy a cég helyzete a jelenlegi piaci fölény ellenére sem kényelmes a feltörekvő versenytársakkal szemben.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak