MI-bejelentések sorával nyitotta meg Thomas Kurian, a Google Cloud vezérigazgatója (a fenti képen), a Google Cloud Next 23 rendezvényt San Franciscóban, amely 2019 után ismét személyesen várta vendégeit. A helyszíni beszámolók szerint a konferencián nemcsak ezért volt jó hangulat, hanem azért is, mert úgy tűnik, tartósan nyereséges tud lenni a Google Cloud. A fordulópont az idei első negyedév volt, és nyereséges lett az idei második negyedév is. Ráadásul a felhős bevételek 28 százalékkal 8 milliárd dollárra nőttek éves alapon, miközben az Alphabet egésze már a negyedik negyedévét zárta 10 százalék alatti bővüléssel.
Kurian konferencianyitó fellépésében erre is kitért, de előadását gyakorlatilag egyetlen téma, a mesterséges intelligencia uralta – ami erősen rímel a Microsoft tavaszi Buildjére.
Kurian három fontos területet emelt ki előadásában: a Google Cloud olyan MI-re optimalizált infrastruktúra lesz, amelyben minden ügyfél felépítheti és futtathatja a saját MI-jét. A Vertex AI fejlesztőeszközöket kínál MI-modellek építéséhez, valamint azokra épülő alkalmazások fejlesztéséhez. Végül, de nem utolsósorban a Duet AI adja az aktív MI-alapú támogatást a Google Workspace és a Google Cloud szolgáltatásaihoz (mintegy válaszként a Microsoft 365 MI-s bővítésére).
MI-hez MI-vel turbózott infrastruktúra
A legtöbb újdonság az MI-re optimalizált felhős infrastruktúrában jött. Az MI-hez (modellépítéshez, alkalmazások futtatásához) nagy teljesítmény kell, ezért a Google továbbra sem áll le az adatközpont-fejlesztéseivel, sőt 2030-ig át akarják állítani működésüket zéró emissziósra, mondta a vezérigazgató.
Ami konkrétan az MI-t érinti: érkezik egy skálázható MI-gyorsító, a Cloud TPU v5e. Segítségével a felhasználók egyetlen felhőalapú TPU-platformot (Tensor Processing Unit) használhatnak az MI tanításához az utána következő fázisokhoz. A gyorsító Kurian szerint akár duplázhatja is a dolláronkénti képzési teljesítményt a Cloud TPU v4-hez képest. A Cloud TPU v5e belekerül a Google multi-clustering szolgáltatásába, a GKE Enterprise-ba, amelynek mintegy 45 százalékkal javulhat így a teljesítménye. (Ezt a horizontális skálázhatóságot biztosító megoldást elsősorban üzletkritikus MI/ML munkaterhelések futtatásához ajánlja a Google.)
Már a jövő hónaptól használhatók lesznek az Nvidia H100 GPU-val szerelt A3 virtuális gépek, melyeket kifejezetten általános MI-hez és a nagy nyelvi modellekhez (LLM, large language model) terveztek. Állítólag háromszor jobb képzési teljesítményt nyújtanak, mint az előző generációs A2-k.
A Cross Cloud Network a multi-cloud jegyében született. Segítségével felhőkön átívelően kapcsolhatók össze az alkalmazások anélkül, hogy a biztonság sérülne. Utóbbiról az ML-támogatott zero trust biztonság gondoskodik. A Cross Cloud Network állítólag 35 százalékkal csökkenti a felhők közötti hálózati késleltetést.
Az új lehetőségek többsége (beleértve a Vertex Al-t és az AlloyDB Omnit is) megjelenik a Google magánfelhős megoldásában, a Distributed Cloudban is (GDC), amely lényegében az ügyfelek saját adatközpontjaiba viszi a Google Cloud szolgáltatásait.
Az igazán nagy dobás: megújult Vertex AI
"Vitathatatlanul a legátfogóbb MI-platform, amely lehetővé teszi a felhasználóknak gépi tanulási modellek létrehozását, telepítését és skálázását" – jellemezte Kurian a Vertex AI-t. A megállapítás nyilván a csomag mostani állapotára értendő, hiszen már két éve használható. A Vertex AI-hoz a Google Model Garden jelenleg több mint 100 alapmodellt kínál, köztük nyílt forráskódú thrid party modelleket chatbothoz, kép- vagy szövegfeldolgozáshoz, szoftverkód létrehozásához stb., de van speciális modell többek között kiberbiztonsághoz (Sec-PaLM 2) és egészségügyi területre (Med-PaLM 2). A Vertex AI amúgy már támogatja a Meta Llama 2-t és a Code Llamát, valamint a Technology Innovative Institute nyílt forráskódú Falcon LLM modelljét, valamint már dolgoznak az Anthropic modelljének, a Claude 2-nek a támogatásán.
Mostantól általánosan elérhető a Vertex Al Search and Conversation, amellyel kereső- és csevegőalkalmazásokat lehet építeni saját adatokra alapozva. A platform része egy fejlesztő és modell-finomhangoló eszközkészlet is, a Vertex Al Generative Al Studio.
A Vertex-Al olyan kiterjesztéseket is kapott, melyek abban segítik a fejlesztőket, hogy a vállalati adatokat és a harmadik féltől származó rendszerek, például egy CRM műveleteit beépítsék saját MI-alkalmazásaikba. Az eszközöknek a Colab Enterprise ad csoportmunka-keretet, amelyen keresztül a felhasználók hozzáférnek az MI-platform összes funkciójához.
Kurian hangsúlyozta, a Vertex AI alapelve, hogy az adatok és a kód teljes mértékben szeparálódjanak, mert ez garantálja, hogy ne szivárogjanak ki adatok például akkor, amikor a vállalatok saját éles adatain képezi az MI-t.
Jön a Duet AI a Workspace-en
A Google sem hagyja ki a ziccert: MI-t visz az irodai csomagjába – bocsánat: kollaborációs platformjába –, a Workspace-be. A Duet AI segít tartalmat létrehozni például pl. Gmailben és Google Docsban, kezesebbé teszi a Google Slides, a Google Sheets és a Google Meet alkalmazásokat is.
A Google Meetben például jegyzeteket készít a megbeszélésről, majd automatikusan elküldi a résztvevőknek az összefoglalót (akárcsak a Teams). A megbeszélés feliratozható, amit a Meet (pontosabban a Duet AI) automatikusan képes lefordítani 18 nyelvre. A Google Chatben beszélgetni is lehet a a Duet AI-val, például kérhetünk tőle összefoglalókat adott témájú dokumentumokról. Ezek a szolgáltatások már elérhetők a Workspace-ben.
A Google Cloudban egyelőre preview állapotú a Duet AI-támogatás, de Kurian azt ígérte, hogy még ebben az évben véglegesítik. Használható lesz például programozási asszisztensként, MI-tanácsadóként, az üzemeltetőknek segíthet az alkalmazásokkal és az infrastrukturával kapcsolatos problémák gyors megoldásában, de akár IT-biztonsági tanácsadóként is használható a kiberfenyegetések minimalizálásához.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak