A robotok autonóm navigációja nem csak az egyes felhasználásokat teheti egyszerűbbé, de utat nyithat olyan kritikus alkalmazások előtt is, amelyek eddig nem igazán voltak megoldhatóak a házhoz szállítástól az orvosi vagy logisztikai feladatokon át a mentési feladatokig. A legtöbb területen kritikus pontnak számít az a képesség, hogy a robotok biztonságosan közlekedjenek az emberek között, és saját mozgásukat rugalmasan hozzá tudják igazítani a megfigyelt és helyesen értékelt emberi viselkedéshez.
Erre az egyik legegyszerűbb példa, hogy egy balra forduló embert jobbról érdemes kikerülni, ha nem akarunk összeütközni vele, de ugyanígy igaz, hogy ha a robot azonos irányban mozog egy emberrel, akkor a sebességet és a köztük lévő távolságot is érdemes a biztonságos keretek között tartani. Erre kínálnak újabb megoldást a Google és a Kaliforniai Egyetem kutatói, akik néhány nappal ezelőtt egy olyan keretrendszert írnak le, amely a gépi tanulásra épülő érzékelést a modell alapú irányítással kombinálja.
A publikáció szerint a módszer jó eredményeket mutat az általános célú felhasználásban, legyen szó a digitális szimulációkról vagy a valós környezetekben folytatott kísérletekről. Ezek között kiemelik az éppen nem látható objektumok vagy személyek elkerülését, ami jobb és a feldolgozott adatok tekintetében is hatékonyabb működéshez vezet, mint a tisztán a tanulásra épülő megközelítések. A dokumentum alapján úgy sikerült "simítani" a gépek pályáján, hogy eközben nincs szükség az emberek helyzetének expilicit meghatározására és mozgásuk pontos előrejelzésére, mindez pedig hozzájárult a navigáció megbízhatóbbá tételéhez.
Szerencsére sokszpr viselkedünk kiszámíthatóan
A leírás alapján a kutatók az Activate Navigation Dataset (HumANav) adatkészletét használták, amely 6 ezer, irodai környezetbe helyezett emberi alakot tartalmaz, hogy azok irányításával fotorealisztikus rendereket gyártson hagyományos kamerákon keresztül. Ez biztosítja az olyan fontos információt, mint mondjuk azt az alapvetést, hogy a gyorsabban sétáló emberek nagyobbakat lépnek. A mesterséges figurákat ezután egy másik készlet, a SURREAL Dataset testtartásokra- és alkatokra, nemekre vagy fényviszonyokra is kiterjedő adataival kombinálták, ami az egyes mozdulatokhoz olyan paramétereket is biztosít, mint akár a szögsebesség.
A kísérletek során a kutatók összesen 180 ezer mintát generáltak, és modelljüket (LB-WayPtNav-DH) betanításához ezek bő kétharmad részét használták fel. A finomhangolás és bármilyen más betanítás nélküli, guruló TurtleBot2 robotot ezután két, előzőleg teljesen ismeretlen épületben engedték útjára, ahol az sikeresen vette az akadályokat – ezek között külön is emltik az ütközések elkerülésére alkalmazott ellenirányú mozgást vagy a beláthatatlan sarkok nagyobb ívben való bevételét.
A tudósok szerint az ágens a fenti információ felhasználásával indokolni is megtanulja az emberek dinamikus jellemzőit, számításba véve a várható következő mozdulatokat is, amikor saját útvonalát tervezi. A rendszer következő megmérettetésére a sokkal zegzugosabb vagy zsúfoltabb környezetekben kerül majd sor, és a fejlesztések egyik iránya a zaj kezelése lesz az állapotbecslések során.
Ahogy a beszámolók, így például a VentureBeat riportja is emlékeztetnek rá, nem a Google az egyetlen technológiai műhely, ahol a robotok autonóm navigációjával kapcsolatos kutatások zajlanak. A legnagyobb társaságok körül a Facebook nemrégiben jött ki az AI Habitat szimulátorral, amely a mesterségesintelligencia-ágensek betanítását segíti például az otthoni robotok esetében a való világban is előforduló lakások vagy irodák modellezésével. Az Amazon tudósai decemberben írtak le egy olyan, ugyancsak otthoni felhasznlásra szánt robotot, amely azzal segíti saját navigációját, hogy kérdéseket tesz fel, ha elbizonytalanodik, pontosan merre is kellene mennie.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak