Bár a generatív mesterséges intelligencia egyre látványosabb dolgokra képes és egyre szélesebb körben hozzáférhető, a betanítás folyamtos költségei miatt egyelőre csak a legnagyobb vállalatok engedhetik meg maguknak, hogy kiaknázzák a benne rejlő potenciált.
Hirdetés
 

A generatív mesterséges intelligencia szöveg- és képalkotó képességei az utóbbi időben óriási lelkesedést és széles körű vitákat váltottak ki, melyek során az egyik fő téma most is az emberi munkaerő hatékony kiváltása. A The Register oldalán közölt véleménycikk ezzel kapcsolatban hívja fel a figyelmet egy olyan szempontra, ami általában kimarad az ilyen beszélgetésekből: ez a szóban forgó MI-modellek rendszeresen (újra)tanításának szükségessége, melynek hiányában az eszközök nagyon hamar elavulttá válhatnak a gyorsan fejlődő környezetekben.

A cikk felidézi, hogy a ChatGPT, a Dall-E-2, a Stable Diffusion és a többi slágertermék óriási adathalmazokon van kiképezve, és a proof-of-concept alkalmazások mellett már előre betanított termékek formájában is megjelenik. A multimodális Stable Diffusion például 4 gigabájtnyi video RAM-mal is elműködget anélkül, hogy szénné égetné a CPU-t, vagyis simán futtatható valamilyen erősebb laptopon vagy asztali számítógépen. Ez nyilván elképesztő mértékben kiszélesíti a felhasználások körét, az ilyen előre kiképzett modelleknek azonban korlátozott az eltarthatósága.

Ezt a lap azzal szemlélteti, mintha valakit 18 éves koráig a lehető legjobb oktatásban részesítenénk, majd a felnőtt élete első napján elzárnánk a külvilágtól, és arra kérnénk, hogy az utasításaink alapján képeket fessen. Ezek a képek eleinte pontosak lennének, de az elszigeteltség miatt napról napra messzebb kerülnének a valóságtól, ahogy a megrendelések is egyre inkább ismeretlen területekre vinnék a művészt. Ugyanígy az előre betanított MI-modellek sem tanulnak már semmi újat a világról, és a hatékonyságuk megőrzéséhez azokat is rendszeresen át kell képezni.

Itt is alapvető szempont a megtérülés

Ez az oka, hogy az ilyen eszközök elsőre mindenkit elvarázsolhatnak, de a későbbi tanításuk drága mulatság lesz, a várható költségek tervezése pedig bonyolult dolog, mert nagyon sok változó játszik benne szerepet. A The Register adott konfigurációkkal szemlélteti a lebegőpontos számítások pontosságát, a modellek méretét és képzési idejét, kitérve a teljesítményt vegyes precizitással optimalizáló modellekre. Ebből kiderül, hogy a folyamtoknak már a GPT-3 esetében is milyen aránytalanul magas költsége és hardverigénye lenne, nem beszélve a későbbi kiadásokról.

A levezetések eredményéből kiderül, hogy mindez akkor is hajmeresztő, rendszeresen sok millió dolláros költségekkel járna, ha feltételezzük, hogy az MI-modellek fejlődési üteme a későbbiekben valamilyen okból nem haladja meg a hardverek fejlődését. Éppen ezért csak a legnagyobb vállalatok engedhetik meg maguknak, hogy kihasználják a masszív nyelvi feldolgozó modellek teljes potenciálját (nem véletlen, hogy a Microsoft hatalmas befektetéseket hajt végre a ChatGPT-t jegyző OpenAI-nál), és a mesterséges intelligencia sem kivétel a csökkenő hozadék elve alól.

Ez a cikk szerint azt jelenti, hogy szaporodik majd az olyan, konkrét alkalmazásokhoz igazított modellek száma, amelyek nem csak telepíthetők, de képezhetők is a konzumer hardvereszközökön. Ezek meg sem közelítik majd a "luxusmárkák" presztízsét, de egy-egy feladatra az üzleti felhasználásban is kiválóan alkalmasak lehetnek. A jövőbeni termékek célja ennek értelmében nem a tökéletesség, hanem a középszerűség kellene, hogy legyen: a mesterséges intelligencia akkor térül meg, ha az MI-modellek már megfelelőek, de még kevesebbe kerülnek, mint a humán munkaerő.

Részletek a The Register oldalán »

Cloud & big data

20 milliárd dollárt kalapozott össze Musk MI-cége

Ez már csak azért is különösen szép teljesítmény, mert az xAI fejlesztette Grok egyelőre leginkább csak különböző botrányos megnyilvánulásaival tűnt ki a generatív modellek egyre sűrűbb mezőnyéből.
 
Hirdetés

Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben

A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.

Az adatvezérelt működés sikere ritkán múlik azon, milyen technológiát vezet be egy vállalat. Sokkal inkább az a kulcs, hogyan illeszti az adattárházat, a BI-t és az MI-megoldásokat a meglévő rendszerekhez és döntési folyamatokhoz.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.