Egy évvel azt követően, hogy a Google félmilliárd dollár körüli összegért megvásárolta a londoni székhelyű DeepMind-ot, az angol fejlesztők megmutattak valamit abból, min dolgozik a világ egyik legjobbjának tartott mesterségesintelligencia-műhelye.
Játszani is engedd
Az angol kutatók deep Q-networknek, röviden DQN-nek hívott algoritmusa jelenleg játékkal tölti az idejét. Egészen konkrétan a számítógépes őskorszak ikonikus darabjának, az Atari 2600-nak a portfóliójából eresztették össze közel félszáz akkori játékkal. A tanulásra képes kód csak a képernyőt "mutatták meg", és azt a célt kapta, hogy a lehető legtöbb pontot gyűjtse.
A gép tehát elkezdte megérteni a környezet sajátosságait és szisztematikusan próbálkozott a jobb eredmény elérésével. Ennek az lett a következménye, hogy a játékok felében rövid idő után a profi játékosok teljesítményével összemérhető eredményeket tudott felmutatni. Néhány esetben pedig simán begyűjtötte a lehetséges maximális pontot. Összességében a 49 kipróbált játékból 43-mal jobban boldogult, mint más öntanuló mechanizmusok.
Mindent ő sem tud
A DQN-nek ott akadtak gondjai, amikor egy játékrendszerben a sikeres visszacsatolás (pontok) nem azonnal érkeznek egy-egy jó lépésre. Tehát azok a játékok, ahol mondjuk egy labirintust kell bejárni, egyelőre nem fekszenek az algoritmusnak, de a Nature alábbi videójában nyilatkozó fejlesztők szerint már dolgoznak a probléma megoldásán.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak