A generatív mesterséges intelligencia szöveg- és képalkotó képességei az utóbbi időben óriási lelkesedést és széles körű vitákat váltottak ki, melyek során az egyik fő téma most is az emberi munkaerő hatékony kiváltása. A The Register oldalán közölt véleménycikk ezzel kapcsolatban hívja fel a figyelmet egy olyan szempontra, ami általában kimarad az ilyen beszélgetésekből: ez a szóban forgó MI-modellek rendszeresen (újra)tanításának szükségessége, melynek hiányában az eszközök nagyon hamar elavulttá válhatnak a gyorsan fejlődő környezetekben.
A cikk felidézi, hogy a ChatGPT, a Dall-E-2, a Stable Diffusion és a többi slágertermék óriási adathalmazokon van kiképezve, és a proof-of-concept alkalmazások mellett már előre betanított termékek formájában is megjelenik. A multimodális Stable Diffusion például 4 gigabájtnyi video RAM-mal is elműködget anélkül, hogy szénné égetné a CPU-t, vagyis simán futtatható valamilyen erősebb laptopon vagy asztali számítógépen. Ez nyilván elképesztő mértékben kiszélesíti a felhasználások körét, az ilyen előre kiképzett modelleknek azonban korlátozott az eltarthatósága.
Ezt a lap azzal szemlélteti, mintha valakit 18 éves koráig a lehető legjobb oktatásban részesítenénk, majd a felnőtt élete első napján elzárnánk a külvilágtól, és arra kérnénk, hogy az utasításaink alapján képeket fessen. Ezek a képek eleinte pontosak lennének, de az elszigeteltség miatt napról napra messzebb kerülnének a valóságtól, ahogy a megrendelések is egyre inkább ismeretlen területekre vinnék a művészt. Ugyanígy az előre betanított MI-modellek sem tanulnak már semmi újat a világról, és a hatékonyságuk megőrzéséhez azokat is rendszeresen át kell képezni.
Itt is alapvető szempont a megtérülés
Ez az oka, hogy az ilyen eszközök elsőre mindenkit elvarázsolhatnak, de a későbbi tanításuk drága mulatság lesz, a várható költségek tervezése pedig bonyolult dolog, mert nagyon sok változó játszik benne szerepet. A The Register adott konfigurációkkal szemlélteti a lebegőpontos számítások pontosságát, a modellek méretét és képzési idejét, kitérve a teljesítményt vegyes precizitással optimalizáló modellekre. Ebből kiderül, hogy a folyamtoknak már a GPT-3 esetében is milyen aránytalanul magas költsége és hardverigénye lenne, nem beszélve a későbbi kiadásokról.
A levezetések eredményéből kiderül, hogy mindez akkor is hajmeresztő, rendszeresen sok millió dolláros költségekkel járna, ha feltételezzük, hogy az MI-modellek fejlődési üteme a későbbiekben valamilyen okból nem haladja meg a hardverek fejlődését. Éppen ezért csak a legnagyobb vállalatok engedhetik meg maguknak, hogy kihasználják a masszív nyelvi feldolgozó modellek teljes potenciálját (nem véletlen, hogy a Microsoft hatalmas befektetéseket hajt végre a ChatGPT-t jegyző OpenAI-nál), és a mesterséges intelligencia sem kivétel a csökkenő hozadék elve alól.
Ez a cikk szerint azt jelenti, hogy szaporodik majd az olyan, konkrét alkalmazásokhoz igazított modellek száma, amelyek nem csak telepíthetők, de képezhetők is a konzumer hardvereszközökön. Ezek meg sem közelítik majd a "luxusmárkák" presztízsét, de egy-egy feladatra az üzleti felhasználásban is kiválóan alkalmasak lehetnek. A jövőbeni termékek célja ennek értelmében nem a tökéletesség, hanem a középszerűség kellene, hogy legyen: a mesterséges intelligencia akkor térül meg, ha az MI-modellek már megfelelőek, de még kevesebbe kerülnek, mint a humán munkaerő.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak