Egy évvel azt követően, hogy a Google félmilliárd dollár körüli összegért megvásárolta a londoni székhelyű DeepMind-ot, az angol fejlesztők megmutattak valamit abból, min dolgozik a világ egyik legjobbjának tartott mesterségesintelligencia-műhelye.
Játszani is engedd
Az angol kutatók deep Q-networknek, röviden DQN-nek hívott algoritmusa jelenleg játékkal tölti az idejét. Egészen konkrétan a számítógépes őskorszak ikonikus darabjának, az Atari 2600-nak a portfóliójából eresztették össze közel félszáz akkori játékkal. A tanulásra képes kód csak a képernyőt "mutatták meg", és azt a célt kapta, hogy a lehető legtöbb pontot gyűjtse.
A gép tehát elkezdte megérteni a környezet sajátosságait és szisztematikusan próbálkozott a jobb eredmény elérésével. Ennek az lett a következménye, hogy a játékok felében rövid idő után a profi játékosok teljesítményével összemérhető eredményeket tudott felmutatni. Néhány esetben pedig simán begyűjtötte a lehetséges maximális pontot. Összességében a 49 kipróbált játékból 43-mal jobban boldogult, mint más öntanuló mechanizmusok.
Mindent ő sem tud
A DQN-nek ott akadtak gondjai, amikor egy játékrendszerben a sikeres visszacsatolás (pontok) nem azonnal érkeznek egy-egy jó lépésre. Tehát azok a játékok, ahol mondjuk egy labirintust kell bejárni, egyelőre nem fekszenek az algoritmusnak, de a Nature alábbi videójában nyilatkozó fejlesztők szerint már dolgoznak a probléma megoldásán.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak