A Meta (Facebook) vezető mesterségesintelligencia-guruja, Yann LeCun nagyon komoly névnek számít a saját szakterületén, így nem csoda, hogy az a júniusi cikke is nagy figyelmet kapott, amelyben átfogó képet festett az emberi szintű gépi intelligencia elérésének lehetőségeiről. Az Open Review-n elérhető anyag nem fogalmazza meg explicit módon, de mindenképpen azt érzékelteti, hogy a legtöbb mai MI-projekt soha nem lesz alkalmas ilyen szintű célok beteljesítésére. A ZDNetnek adott szeptemberi videointerjúban pedig a francia tudós még világossabbá tette, hogy miért szkeptikus a mélytanulás (deep learning) jelenleg sikeres kutatási irányaival kapcsolatban.
A "civilben" Touring-díjas, a New York Egyetem Courant Matematikatudományi Intézet professzoraként dolgozó szakember szerint szükséges, de nem elégséges törekvésekről van szó. A nagy nyelvi modelleket, például a Transformer-alapú GPT-3-at egy jövőbeli intelligens rendszer lehetséges alkotóelemének tekinti, de lényeges elemeket hiányol belőle. (Ahogy arra a ZDNet cikke is felhívja a figyelmet, mindezt egy olyan tudós fogalmazza most meg, aki maga is részt vett a konvolúciós neurális hálózatok használatának fejlesztésében.) A megerősített tanulást ugyanakkor túlságosan cselekvés-alapúnak tartja, miközben az emberi intelligencia elsősorban a megfigyelésen keresztül fejlődik.
Úgy okos, hogy közben reménytelenül buta
A fent említett cikkben és az interjúban természetesen részletezik is mindezt, így feltétlenül érdemes azt megnézni vagy a szerkesztett átíratban elolvasni, a dolog lényege azonban az, hogy LeCun több évtizedes tapasztalata alapján a mindenfelé tartó vakvágányok felszámolását sürgeti, abba az irányba tereve a mesterséges intelligencia fejlődését, amerre szerinte érdemes lenne. A beszélgetés egyik pontján azt is felveti, hogy az intelligens gépeknek még annyi "józan eszük" sincs, mint egy macskának, így talán érdemes lenne ebből az irányból megközelíteni a dolgot. A generatív hálózatok használatába vetett reményeit ennek alapján már fel is adta az olyan alkalmazásokban, mint például a videó soron következő képkockájának előrejelzése, amit egyelőre teljes kudarcak tart.
Az interjú kitér arra is, hogy a professzor szerint a tisztán statisztikai megközelítés nem életképes, vagyis nem lehet a valószínűségszámítás az egyetlen keret, amelyre egy világmodellt építenek. Ebből következően még az ipari MI-t is érdemes volna újragondolni, mert a kelleténél optimistább az a megközelítés, hogy adatokat dobálnak a nagy neurális hálózatokba, amelyek ennek alapján szinte bármit megtanulnak. Bár a gépi "józan ész" nélkül is lehetségesnek tartja mondjuk az ötödik szintű (teljes autonómiával működő) önvezető autók megvalósítását, azokat szükségszerűen túltervezettnek és olyan törékenynek képzeli, mint mint azokat a gépi látás területén fejlesztett programokat, amelyeket a mélytanulás egyből elavulttá tett.
A kielégítőbb és valószínűleg jobb megoldást az olyan rendszerekben látja, amelyek lehetővé teszik a világ működésének jobb megértését. A mostani, alapvető problémákról szólva felhozza az "információ mérését", amelynek kapcsán úgy gondolja, hogy tenni kellene egy lépést hátra, és azt mondani: rendben, építettünk egy létrát, de ha a Holdra akarunk feljutni, akkor arra ez a létra semmiképpen sem lesz alkalmas. LeCun célja is az, hogy az alapfogalmak újragondolásra késztessen: szerinte amikor azt javasolja, hogy építsünk rakétákat, akkor nem tudja részletezni a rakétagyártás módját, de le tudja fektetni az arra vonatkozó alapelveket.
Részletek az energiaalapú önfelügyelt tanulásról (energy-based self-supervised learning) és az alternatív megközelítésről a ZDNet riportjában »
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak