A Google által 2014-ben felvásárolt DeepMind kutatói az elmúlt évtizedben sorra szállították a mesterséges intelligenciához köthető újabb és újabb nagyszerű eredményeket. A korábbi években beszámoltunk például arról, amikor a deep Q-networknek nevezett algoritmus végigjátszotta a számítógépes őskorszak ikonikus darabjára, az Atari 2600-ra írt félszáz játékot, vagy amikor az ugyancsak a DeepMind által fejlesztett AlphaGo legyőzte az egyik legerősebb profi gójátékost. Vagy ott van az AlphaZero, amely mindenféle megnyitáselmélet és adatbázis nélkül képes volt pár nap alatt úgy megtanulni sakkozni, hogy nem csak az emberi játékosokat, de a legerősebb gépi riválisokat is térdre kényszerítette. Két évvel ezelőtt pedig már olyan lazábban szabályozott környezetben is diadalmaskodott profik felett a cég MI-je, mint amilyet a legendás valós idejű stratégia játék, a StarCraft II nyújt.
Bármennyire is meggyőzőek ezek az eredmények, a mesterséges intelligencia jelenlegi korlátait szépen kidomborítja az, hogy a fenti esetek mindegyikében egyfajta célprogramként funkcionált az MI. Azaz a góban diadalmaskodó algoritmus nem tudna mit kezdeni egy sakkjátszmával, és viszont. A kutatók szent grálja viszont természetesen egy olyan MI megalkotásában ölt testet, amelyik a környezeti feltételektől és a "játékszabályoktól" függetlenül képes értékelhető döntéseket hozni.
Minden körülmények között
Az általános gépi intelligencia felé vezető út egyik lépése lehet az a virtuális játszótér, amely folyamatosan változó körülményekkel és szabályokkal próbálja az egyes algoritmusokat adaptálódásra tanítani. Az XLand elnevezésű színes világban egy központi algoritmus felelős a terep és az adott szituációban érvényes szabályok megalkotásáért. A játékos szerepre osztott MI-k arzenálja pedig mindössze annyiból áll, hogy képesek érzékelni a különböző színeket, illetve megkapják a jutalompont megszerzésének feltételeit. Minden más a térképen mozogva dől el.
A megerősítéses tanulással pallérozódó virtuális játékosokat a szintén a korábbi tapasztalatokból fejlődő játékmester folyamatosan újabb és újabb, egyre összetettebb kihívások elé állítja. Ezek között egyaránt vannak együttműködést igénylő és kompetitív célok, miközben a játékban részt vevő MI-k száma is állandóan változik.
A DeepMind által "nevelgetett" algoritmusok között van olyan, amelyik már 700 ezer különböző partiban vett részt 4000 egyedi terepen. Ezekben a játékokban pedig összesen 3,4 millió különböző feladattal kellett megbirkóznia. Az MI ezeket a célokat folyamatos próbálkozással igyekszik letudni. Bár abban egyelőre maguk a kutatók sem biztosak, hogy mekkora a szerencse szerepe abban, ha például egy elemnek ütközve az MI új, eddig nem létező közlekedési utat nyit magának a pályán, ám az ilyen haladást segítő "balesetek" előfordulása meglehetősen konzisztensnek mutatkozik.
Van még mit tanulni
Az úgynevezett open-ended learning módszer finomításától a cég szakemberei azt remélik, hogy idővel sokkal több területen használható, eszköztárát rugalmasan alakító algoritmusok segíthetik majd életünket. Ám ehhez még bizonyosan van mit tanulni, hiszen a fenti videóban is bemutatnak olyan, elméletben együttműködést kívánó játszmát, ahol az algoritmusok összedolgozás helyett inkább egymás "legyilkolásában" látják a megoldás kulcsát.
Adathelyreállítás pillanatok alatt
A vírus- és végpontvédelmet hatékonyan kiegészítő Zerto, a Hewlett Packard Enterprise Company platformfüggetlen, könnyen használható adatmentési és katasztrófaelhárítási megoldása.
CIO KUTATÁS
TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?
Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »
Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak