Alapvető probléma van a jelenlegi mesterségesintelligencia-modellek képességeivel az új fajta információ elsajátításában, mégpedig az, hogy nem igazán képesek ilyesmire – állítják a kanadai Alberta Egyetem tudósai a Nature oldalán nemrég közzétett tanulmányukban. Röviden arról van szó, hogy a nagy nyelvi modellek (LLM), melyek felépítése az adathalmazokban talált mintákra alapul, nem teljesítenek jól a "folyamatos tanulás" állapotában – vagyis mindazokban a környezetekben, ahol folyamatosan új fogalmakat kell bevezetni a képzésükbe.
Ebből következik, hogy a működő mélytanuló rendszereket jellemzően az alapoktól újra kell képezni, ha valami teljesen új dologra akarják őket megtanítani, máskülönben gondot okozhat a korábbi adatkészleteken finomhangolt feldolgozóegységek (mesterséges neuronok) frissítése. A standard tanulási módszerek fokozatosan elvesztik plaszticitásukat, mivel nem biztosított a kevésbé használt egységek folyamatos és véletlenszerű újrainicializálása: a kutatók szerint ezt egy olyan emberi agyhoz lehetne hasonlítani, amelyben a neuronok 90 százaléka halott.
Mit ér az MI, ha túl drága
Mindez azt jelenti, hogy a legtöbb MI-modellt mindig át kell képezni, ha újfajta adatok válnak elérhetővé, ami rendkívül költséges lehet – különösen akkor, ha a nagy nyelvi modellekről van szó, a szóban forgó új adatkészletek pedig megfelelnek a publikus interneten elérhető tartalom jelentős részének. A tudósok megvizsgálták, hogy a legnépszerűbb MI-modellek a megerősítő tanulás (reinforcement learning) módszereivel adaptálhatók-e a folyamatos tanuláshoz, de arra jutottak, hogy a mesterséges neuronok mindenképpen tömegével süllyednek nullás értékre.
A megoldást keresve azonban kifejlesztettek egy olyan algoritmust is, ami véletlenszerűen kapcsol be egyes neuronokat a képzési kör után, és azt tapasztalták, hogy ezzel mérsékelhető a rendszer teljesítményének visszaesése. Ehhez azonban hozzáteszik, hogy az eljárást sokkal nagyobb rendszereken kell majd tesztelni, hogy tényleg megbizonyosodjanak a hatékonyságáról. A folyamatos tanulás problémájának megoldását azonban milliárd dolláros kérdésnek nevezik, mivel csak így lehetne csökkenteni a modellek betanítási költségeit.
Arról, hogy utóbbiak miatt még mindig csak a legnagyobb vállalatok engedhetik meg maguknak a kísérletezést a mesterséges intelligencia lehetőségeinek kiaknázására, ebben a cikkünkben írtunk részletesebben. Arra pedig, hogy az óriási befektetések megtérülése mennyire kétséges, szinte naponta kapjuk az újabb és újabb példákat.
Így újult meg Magyarország leggyorsabb mobilhálózata
Közel 100 milliárd forintos beruházással, a rádiós és maghálózat teljes modernizációjával zárult le a Yettel történetének egyik legnagyobb műszaki fejlesztése.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak