Két Arm-alapú csipet mutatott be a Microsoft a héten Seattle-ben, az Ignite-on. Az Azure Maia 100-at mesterséges intelligenciára, a Cobalt 100-at pedig általános számítási feladatokra optimalizálták. Így a Microsoft is beáll azoknak a szolgáltatóknak a sorába, melyek saját kezükbe veszik a rendszereikhez optimalizált processzorok fejlesztését. A sort az Amazon kezdte még a 2010-es évek közepén, azóta pedig követte a Google és az Alibaba is, az Apple pedig 2020 óta már az asztali gépeiben is saját fejlesztésű CPU-t használ.
A Maia nevű MI-gyorsítót arra tervezték, hogy hatékonyan lehessen rajta futtatni felhőalapú gépi tanulási és OpenAI modelleket, illetve a Binget, a GitHub Copilotot és a ChatGPT-t egyaránt. (A csip üzemi hőmérsékletét egy hozzá tervezett speciális, Sidekicknek nevezett folyadékhűtési rendszer biztosítja.) Az Azure Cobalt pedig az általános felhős számítási feladatok hatékonyságát javítja – azaz az Azure-ban nagyobb teljesítményt kínál kisebb energiafelhasználással és olcsóbban.
A Cobalton futó virtuális gépekre 2024-től lehet előfizetni. A vállalat a Maia 100 forgalomba hozatalára még nem mondott határidőt.
A csipeket egyébként már intenzíven teszteli a vállalat. A Maia 100-nak a Bing csevegőbotja, a GitHub Copilot, valamint GPT 3.5 Turbo futtatásával kell bizonyítania, hogy megfelel az LLM-ek (large language model) igényeinek. A Cobaltokat a Teamsszel és az SQL Serverrel tesztelik. A cég szerint utóbbi csipek 40 százalékkal jobban teljesítettek, mint az Azure-ban eddig használt Arm-alapú CPU-k, amiket az Ampere szállított.
Nem szakadnak el a csipgyártóktól
A Microsoft azonban hangsúlyozta, a saját csipek fejlesztése nem jelenti azt, hogy szakítanak a hagyományos beszállítóikkal. Szintén az Ignite-on jelentették be, hogy az Azure-ban bővítik az AMD-s virtuális gépek kínálatát AMD MI300X-gyorsított VM-ekkel, melyek kifejezetten az MI-folyamatok feldolgozását támogatják. A konferencián bemutatták az NC H100 v5 virtuális gépsorozat előzetesét is, amelyben a Nvidia H100 Tensor Core GPU-ja dolgozik.
A konkurensek korábbi lépéseinek ismeretében nem meglepő, hogy a Microsoft is belevágott a felhőjére optimalizált csipek házon belüli tervezésébe. Az Amazon és a Google példája is mutatja, hogy a hyperscale adatközpontokban érdemes a szervernél is mélyebbre menni az infrastruktúra optimalizálásában, mert sokkal jobb ár-teljesítmény arányt lehet így elérni. Emiatt a hyperscale szolgáltatók adatközpontjaiban egyre nagyobb teret nyernek az Arm-alapon fejlesztett saját csipek. Az AWS például azzal promózza a Gravitonjait, hogy a száz legfontosabb ügyfele már azokat használja, és ezáltal látványosan javították az AWS-ben futtatott rendszereik ár-teljesítmény arányát.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak