Hosszú ideje olvashatók figyelmeztetések azzal kapcsolatban, hogy a nagy nyelvi modellek (LLM-ek) belátható időn belül kifogyhatnak a képzésükhöz használt adatokból. Az online erőforrások sem vég nélküliek, a tartalom begyűjtését és felhasználását pedig amúgy is egyre szigorúbban ellenőrzik, ezért a nyilvános online források egyre szűkülnek, miközben a generatív mesterséges intelligencia fejlesztéséhez egyre több adatra lenne szükség. Már másfél évvel ezelőtt is megjelent olyan előrejelzés, amelynek alapján a gépi tanuló rendszerek 2026 előtt kimeríthetik a jó minőségű nyelvi adatokat.
Utóbbiak összeállításában híroldalakra, könyvekre, tudományos cikkekre, Wikipédia-bejegyzésekre vagy a szűrt webes tartalomra támaszkodnak, az egyre nagyobb és jobb modelleket építő vállalatok pedig lassan beleütköznek abba a problémába, hogy szó szerint az internet sem lesz elég nagy hozzá, hogy ellássa őket a szükséges mennyiségű információval. Legutóbb a The Wall Street Journal közölt róla összeállítást, hogy néhányan azt kutatják, miként lehetne nagyobb és intelligensebb modelleket képezni kevesebb adattal, de a legtöbben inkább alternatív adatforrásokat keresnek.
Nem biztos, hogy jó az irány
Ilyenek az ugyancsak mesterséges intelligenciával létrehozott, szintetikus adatok, amelyek sok vitát gerjesztettek az elmúlt időszakban. Bár ez a megközelítés elvileg gazdaságosabb, és mélyebb megértést biztosíthat a mesterséges intelligenciának a mögöttes fogalmakat illetően, a kritikusok olyan degeneratív folyamatról beszélnek, ami ideális körülmények között is a modellek gyors összeomlását okozza. Az egyik kutató nemrég Habsburg MI-ként hivatkozott az olyan rendszerekre, amelyek képzésében más generatív MI-k kimeneteire támaszkodnak, és ezzel irreverzibilis hibákat okoznak bennük.
Mindezt az érintett vállalatok jobb minőségű szintetikus adatok létrehozásával próbálják megelőzni, de a részletekbe természetesen egyikük sem megy bele, hogy mindezt hogyan valósítaná meg. Léteznek ugyan megfelelő felhasználási esetek a szintetikus adatok számára is, de a WSJ szerint így is komoly akadályról van szó a hatalmas, "mindenhez is értő" modellek fejlesztésében. Ezek helyett az olyan modellek építése felé fordulhatnak, amelyeket bizonyos feladatokra képeznek ki meghatározott adatkészleteken, mivel ezek sokkal olcsóbbak és hatékonyabbak is lesznek a maguk területén.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak