Három év kihagyás után ismét személyesen várta a részvevőket a rendezvény San Franciscóban, hogy a Google vezetői elmondják: a vállalat ugyanazt csinálja, mint a Microsoft, mindenhová (is) MI-t pakol.

MI-bejelentések sorával nyitotta meg Thomas Kurian, a Google Cloud vezérigazgatója (a fenti képen), a Google Cloud Next 23 rendezvényt San Franciscóban, amely 2019 után ismét személyesen várta vendégeit. A helyszíni beszámolók szerint a konferencián nemcsak ezért volt jó hangulat, hanem azért is, mert úgy tűnik, tartósan nyereséges tud lenni a Google Cloud. A fordulópont az idei első negyedév volt, és nyereséges lett az idei második negyedév is. Ráadásul a felhős bevételek 28 százalékkal 8 milliárd dollárra nőttek éves alapon, miközben az Alphabet egésze már a negyedik negyedévét zárta 10 százalék alatti bővüléssel.

Kurian konferencianyitó fellépésében erre is kitért, de előadását gyakorlatilag egyetlen téma, a mesterséges intelligencia uralta – ami erősen rímel a Microsoft tavaszi Buildjére.

Kurian három fontos területet emelt ki előadásában: a Google Cloud olyan MI-re optimalizált infrastruktúra lesz, amelyben minden ügyfél felépítheti és futtathatja a saját MI-jét. A Vertex AI fejlesztőeszközöket kínál MI-modellek építéséhez, valamint azokra épülő alkalmazások fejlesztéséhez. Végül, de nem utolsósorban a Duet AI adja az aktív MI-alapú támogatást a Google Workspace és a Google Cloud szolgáltatásaihoz (mintegy válaszként a Microsoft 365 MI-s bővítésére).

MI-hez MI-vel turbózott infrastruktúra

A legtöbb újdonság az MI-re optimalizált felhős infrastruktúrában jött. Az MI-hez (modellépítéshez, alkalmazások futtatásához) nagy teljesítmény kell, ezért a Google továbbra sem áll le az adatközpont-fejlesztéseivel, sőt 2030-ig át akarják állítani működésüket zéró emissziósra, mondta a vezérigazgató.

Ami konkrétan az MI-t érinti: érkezik egy skálázható MI-gyorsító, a Cloud TPU v5e. Segítségével a felhasználók egyetlen felhőalapú TPU-platformot (Tensor Processing Unit) használhatnak az MI tanításához az utána következő fázisokhoz. A gyorsító Kurian szerint akár duplázhatja is a dolláronkénti képzési teljesítményt a Cloud TPU v4-hez képest. A Cloud TPU v5e belekerül a Google multi-clustering szolgáltatásába, a GKE Enterprise-ba, amelynek mintegy 45 százalékkal javulhat így a teljesítménye. (Ezt a horizontális skálázhatóságot biztosító megoldást elsősorban üzletkritikus MI/ML munkaterhelések futtatásához ajánlja a Google.)

Már a jövő hónaptól használhatók lesznek az Nvidia H100 GPU-val szerelt A3 virtuális gépek, melyeket kifejezetten általános MI-hez és a nagy nyelvi modellekhez (LLM, large language model) terveztek. Állítólag háromszor jobb képzési teljesítményt nyújtanak, mint az előző generációs A2-k.

A Cross Cloud Network a multi-cloud jegyében született. Segítségével felhőkön átívelően kapcsolhatók össze az alkalmazások anélkül, hogy a biztonság sérülne. Utóbbiról az ML-támogatott zero trust biztonság gondoskodik. A Cross Cloud Network állítólag 35 százalékkal csökkenti a felhők közötti hálózati késleltetést.

Az új lehetőségek többsége (beleértve a Vertex Al-t és az AlloyDB Omnit is) megjelenik a Google magánfelhős megoldásában, a Distributed Cloudban is (GDC), amely lényegében az ügyfelek saját adatközpontjaiba viszi a Google Cloud szolgáltatásait.

Az igazán nagy dobás: megújult Vertex AI

"Vitathatatlanul a legátfogóbb MI-platform, amely lehetővé teszi a felhasználóknak gépi tanulási modellek létrehozását, telepítését és skálázását" – jellemezte Kurian a Vertex AI-t. A megállapítás nyilván a csomag mostani állapotára értendő, hiszen már két éve használható. A Vertex AI-hoz a Google Model Garden jelenleg több mint 100 alapmodellt kínál, köztük nyílt forráskódú thrid party modelleket chatbothoz, kép- vagy szövegfeldolgozáshoz, szoftverkód létrehozásához stb., de van speciális modell többek között kiberbiztonsághoz (Sec-PaLM 2) és egészségügyi területre (Med-PaLM 2). A Vertex AI amúgy már támogatja a Meta Llama 2-t és a Code Llamát, valamint a Technology Innovative Institute nyílt forráskódú Falcon LLM modelljét, valamint már dolgoznak az Anthropic modelljének, a Claude 2-nek a támogatásán.

Mostantól általánosan elérhető a Vertex Al Search and Conversation, amellyel kereső- és csevegőalkalmazásokat lehet építeni saját adatokra alapozva. A platform része egy fejlesztő és modell-finomhangoló eszközkészlet is, a Vertex Al Generative Al Studio.

A Vertex-Al olyan kiterjesztéseket is kapott, melyek abban segítik a fejlesztőket, hogy a vállalati adatokat és a harmadik féltől származó rendszerek, például egy CRM műveleteit beépítsék saját MI-alkalmazásaikba. Az eszközöknek a Colab Enterprise ad csoportmunka-keretet, amelyen keresztül a felhasználók hozzáférnek az MI-platform összes funkciójához.

Kurian hangsúlyozta, a Vertex AI alapelve, hogy az adatok és a kód teljes mértékben szeparálódjanak, mert ez garantálja, hogy ne szivárogjanak ki adatok például akkor, amikor a vállalatok saját éles adatain képezi az MI-t.

Jön a Duet AI a Workspace-en

A Google sem hagyja ki a ziccert: MI-t visz az irodai csomagjába – bocsánat: kollaborációs platformjába –, a Workspace-be. A Duet AI segít tartalmat létrehozni például pl. Gmailben és Google Docsban, kezesebbé teszi a Google Slides, a Google Sheets és a Google Meet alkalmazásokat is.

A Google Meetben például jegyzeteket készít a megbeszélésről, majd automatikusan elküldi a résztvevőknek az összefoglalót (akárcsak a Teams). A megbeszélés feliratozható, amit a Meet (pontosabban a Duet AI) automatikusan képes lefordítani 18 nyelvre. A Google Chatben beszélgetni is lehet a a Duet AI-val, például kérhetünk tőle összefoglalókat adott témájú dokumentumokról. Ezek a szolgáltatások már elérhetők a Workspace-ben.

A Google Cloudban egyelőre preview állapotú a Duet AI-támogatás, de Kurian azt ígérte, hogy még ebben az évben véglegesítik. Használható lesz például programozási asszisztensként, MI-tanácsadóként, az üzemeltetőknek segíthet az alkalmazásokkal és az infrastrukturával kapcsolatos problémák gyors megoldásában, de akár IT-biztonsági tanácsadóként is használható a kiberfenyegetések minimalizálásához.

Cloud & big data

Egy év alatt 5 százalékkal nőtt az AMD részesedése az x86-os szerverpiacon

De a vállalat más szegmensekben is gyorsan az Intel nyakára mászhat.
 
Az Európai Unió kibervédelmi direktívájának való megfelelés nem annyira bonyolult feladat, mint amilyennek elsőre látszik.

a melléklet támogatója a Balasys IT Zrt.

Hirdetés

Biztonságos M2M kommunikáció nagyvállalti környezetben a Balasystól

A megnövekedett támadások miatt az API-k biztonsága erősen szabályozott és folyamatosan auditált terület, amelynek védelme a gépi kommunikáció (M2M) biztonságossá tételén múlik.

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.