Az Alphabet-Google kedden közölt új részleteket a mesterségesintelligencia-modellek betanításához használt szuperszámítógépeikről, amelyeket az MLPerf benchmark hitelesítésével gyorsabbak és energiahatékonyabbak ír le az Nvidia hasonló rendszereinél. A vállalat saját, újabban már a negyedik generációban járó Tensor Processing Unit (TPU) csipjeit használja az ilyen feladatok több mint 90 százalékában, a most közzétett anyagban pedig azt részletezi, hogyan épített összesen 4096 darab csipből egy szuperszámítógépet ugyancsak egyedi fejlesztésű optikai áramköri kapcsolóival (OCS).
Ez utóbbiak kulcsfontosságúak a hasonló rendszereket építő cégek versenyében, mivel a nagy nyelvi modellek (LLM), mint a Google Bard vagy az OpenAI ChatGPT-je, már bőven túl nagyok hozzá, hogy egyetlen csipen tárolják őket. Ehelyett több ezer olyan csipet használnak, amelyeknek hosszú ideig kell közösen működniük a modell betanítása alatt. A Google szerint a cég szuperszámítógépei egyszerűvé teszik a kapcsolatok menet közben való újrakonfigurálását, így elkerülhetők bizonyos problémák, és javítható a teljesítmény is. A meghibásodott alkatrészek megkerülése olyan rugalmasságot biztosít, ami lehetővé teszi a kapcsolatok topológiájának megváltoztatását is, felgyorsítva a gépi tanuló modelleket.
Egyelőre csak magukban örülhetnek
A publikációban a Google szakemberei azt állítják, hogy a fentihez hasonló méretű rendszerek esetében saját csipjeik akár 1,7-szer gyorsabbak és 1,9-szer hatékonyabbak, mint az Nvidia A100 lapkáján alapuló rendszere; a TPU v4-et ugyanakkor hasonlították össze az Nvidia H100-assal, mert az a később került piacra, és újabb technológiát képvisel. A Google egyébként hiába csak most adott betekintést a szóban forgó rendszer működésébe, az már 2020 óta üzemben van egy oklahomai adatközpontban.
A Reuters beszámolója alapján a Google utalt rá, hogy már dolgozik a TPU következő sorozatán, amelyik versenyezhet az Nvidia zászlóshajó termékeivel. Erről részleteket azonban nem tett közzé, mint ahogy az Nvidia sem reagált még hivatalosan a Google közléseire. Itt érdemes megjegyezni, hogy a Google TPU-it nem lehet megvásárolni, csak bérelni a Google Cloudon keresztül, az állítólagos rekorder szuperszámítógép és a negyedik generációs TPU-dizájn pedig még így sem érhető el kívülről, vagyis formailag kutatási projektnek tekinhető. Az Nvidia GPU-it ezzel szemben bárki megvásárolhatja, így azokat a kereskedelmi kategóriába sorolják.
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?