Az Intel Labs egyetemi kutatókkal oldotta meg, hogy ne kelljen óriási számítási kapacitás az MI tanításához.
Hirdetés
 

Végre nem a pénz lesz a szűk keresztmetszet a mesterséges intelligencia (MI) kutatásának. A Dél-Kaliforniai Egyetem és az Intel Labs csapata megoldotta, hogy egy high-end munkaállomással is közel olyan tempóban lehessen megoldani MI-vel kapcsolatos problémákat, mint a kutatásban élen járó cégek óriási teljesítményű célhardvereivel. Az eredményről az IEEE Spectrum számolt be.

A kutatásban szerepet kapott az egyik legősibb FPS (first-person shooter), a Doom, valamint egy sor Atarin futó játék – az algoritmust ugyanis ezek segítségével tanították. A jó eredményt pedig az bizonyította, hogy sztenderd géppel is képesek megoldani olyan 3D-s MI-problémákat, amik a DeepMind kapcsán merültek fel.

Kell a számítási kapacitás. De mennyi?

A korszerű MI-rendszerek tanításához eddig óriási számítástechnikai erőforrás kellett. A témában érdekelt cégek többsége ezt könnyedén biztosítja, de az OpenAI konzorcium rendelkezésére álló számítási kapacitás, amit az MI tanítására használhatnak is nagyon gyorsan nő: 3,4 havonta duplázódik.

Az egyik leginkább adatigényes (ezáltal számításigényes) megközelítés a mély megerősítő tanulás (deep reinforcement learning – DRL), amely lehetővé teszi az MI emberi beavatkozás nélküli öntanulását (lásd ZeroGo). Ez a módszer segített például abban, hogy a Starcraftban és a Dota 2-ben is képes volt legyőzni az MI az emberi játékosokat. Ezeket az algoritmusokat azonban több száz processzort és GPU-t tartalmazó kiszolgálókon tanították és futtatták. Ilyen számítási kapacitást egy akadémiai háttérrel dolgozó kutatócsapat még akkor sem nagyon tud felépíteni, ha szerez külső finanszírozót az adott projekthez.

Az Intel és a Dél-Kaliforniai Egyetem fejlesztései azonban kicsit kiegyenlítették a nagyvállalatok és a kutatók versenyét. Legfőképpen azért, mert úgy válik hatékonnyá a tanítási folyamat, hogy nem kell hozzá speciális hardver. (Sokan azt sem tartják elhanyagolható szempontnak, hogy egy ilyen tucathardvernek sokkal kisebb a szén-dioxid-kibocsátása, mint egy szuperszámítógépnek.)

A megoldást, mint annyiszor, most is a kényszer szülte. Az egyik kutatócsapat a nyári szabadságolások miatt nem fért hozzá az egyetemén keresztül szuperszámítógép-kapacitáshoz. Emiatt viszont leállt az DRL-kutatási projektjük. Hogy haladjanak, elkezdtek gondolkodni azon, hogyan tudnák folytatni a munkát egy szimpla, bár csúcskategóriás, kereskedelmi forgalomban kapható géppel.

A DRL rendszerek klasszikusan úgy épülnek fel, hogy szimulált környezetbe helyeznek MI-ágenseket, amelyek az MI eredményeit értékelik, és visszacsatolást adnak, folyamatosan javítva a modell pontosságát. A tanítási folyamatban három alapvető számítási feladatot kell elvégeznie egy ilyen rendszernek. Először is szimulálnia kell a környezetet és az ágenseket. A megtanult szabályok (policy) alapján dönteni kell a következő teendőről. Végül az eredmény alapján frissíteni kell a policyt. És kezdődik minden elölről...

Egyedi architektúrát alakítottak ki

A tanítás sebességét mindig a leglassabb folyamat határozza meg, ám a DRL esetében nem segít, ha a három fázist egyenként optimalizálják, mert azok gyakran egymásba fonódnak. A kutatók az erőforrásokat úgy választották szét, hogy mindegyik fázisnak optimális mennyiség jusson (ezt nevezik a kutatók SampleFactory architektúrának).

Emellett más trükköket is bevetettek. Az adathoz való hozzáférést például úgy gyorsították, hogy besűrítették egy olyan megosztott memóriába, ahol az összes folyamat közvetlenül hozzáfért. Ezzel a módszerrel a 36 magos CPU-val és egy GPU-val felszerelt gépen másodpercenként 140 ezer képkockát tudtak feldolgozni. Ez a teljesítmény simán felveszi a versenyt azzal, amit a DeepMind Lab 3D-s képzési környezete biztosít.

De nem csak ebben bizonyult jobbnak a kutatók rendszere. Próbaként megcsináltak 30 darab olyan 3D-s példafeladatot, amit a DeepMind Lab állított össze. A kutatók fapados rendszeren tanított MI-modellje jobbnak bizonyult, mint amit a DeppMinddal sikerült előállítani. A csapat egyébként a módszert egy középkategóriás laptopon is kipróbálták, és azon is működőképesnek bizonyult.

Cloud & big data

25 évre ítélték Sam Bankman-Friedet. Változott valami?

Csütörtökön megszületett az ítélet az FTX volt vezérigazgatójának ügyében: 57 éves korában szabadulhat.
 
Hirdetés

A NIS2-megfelelőség néhány technológiai aspektusa

A legtöbb vállalatnál a megfeleléshez fejleszteni kell a védelmi rendszerek kulcselemeit is.

Az uniós direktíva felpezsdíti a magyar kiberbiztonsági piacot, az auditokból átfogóbb képet kapunk a gazdaság és az ország kiberképességeiről is. Interjú dr. Bencsik Balázzsal, az SZTFH kibervédelmi igazgatójával.

a melléklet támogatója a RelNet Technológia Kft.

CIO KUTATÁS

TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?

Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »

Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!

LÁSSUNK NEKI!

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.