A hallucinációnak nevezett jelenség egy olyan megoldatlan probléma a mesterségesintelligencia-iparágban, ami jelentősen aláássa a technológia hasznosságát. A biológiai agy hallucinációira emlékeztető kimeneti pontatlanságokra jellemző, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat, de egyesek szerint már a terminológia is teljesen félrevezető: a nagy nyelvi modellek (LLM-ek) ugyanis nem olyasmit próbálnak átadni, amit saját maguk érzékelnek vagy értenek, és a kimeneteik igazságát illetően is közömbösek, így a Glasgow-i Egyetem kutatói például amellett kardoskodnak, hogy a működésüket inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni.
A helyzet ráadásul még annál is rosszabb, mint elsőre tűnhet, mivel a tapasztalat szerint a hallucináció az MI-modellek hatékonyságának növekedésével nem enyhül, hanem ellenkezőleg, egyre súlyosbodik. A paraméterek, a képzési adatok és más tényezők bővülése ugyanis az összetettebb kérdések feldolgozása mellett a helytelen válaszok arányát is növeli: az LLM-ek egyre meggyőzőbben képesek eljátszani, hogy értenek valamihez, és majdnem mindenre határozottan válaszolnak, miközben még a triviális kérdéseken is folyamatosan elvéreznek. Nem kivétel ez aló az OpenAI legújabb GPT-5 modellje sem, ami a gyártó szerint kevesebbet hallucinál, de a felhasználók beszámolói ezt a legkevésbé sem támasztják alá.
Könnyű belátni, hogy az MI-hallucináció megoldatlansága alapvető ellentmondásban van a mesterséges intelligenciát fejlesztő cégek ígéreteivel az emberi képességeket idéző, vagy azokat meg is haladó mesterséges általános intelligencia (AGI) küszöbön álló megjelenéséről. Miközben a befektetők nehezen indokolható összegeket tolnak az MI-vállalatokba és a technológiával összefüggő infrastrukturális beruházásokba, sokan amellett érvelnek, hogy a hallucinációra hiába keresnek megoldást, mert az az LLM-ek lényegi működéséből fakad. Ennek értelmében pedig a nagy nyelvi modellek zsákutcát jelentenének az olyan MI felépítésére irányuló erőfeszítésekben, ami képes megbízhatóan értékelni a tényszerű állításokat.
Már az OpenAI sem köti az ebet a karóhoz
Ha valóban erről van szó, akkor nem szorul magyarázatra, hogy a dolog milyen szűk keretek közé szorítaná a mesterséges intelligencia üzleti alkalmazásait – legalábbis a már befektetett összegek és a cserébe elvárt megtérülés tekintetében. Ahogy lassan kiderül, hogy a generatív MI-ből nem lesz mindenre alkalmas csodaszer, és a káoszt sem lehet automatizálni, egy múlt héten megjelent tanulmányukban már az OpenAI kutatói is érdemi magyarázatot keresnek az MI-hallucinációra ahelyett, hogy az újabb és újabb kiadásoktól várná a probléma felszívódását. Ahogy írják, a nagy nyelvi modellek talán azért hallucinálnak, mert létrehozásukkor találgatásra ösztönzik őket, ahelyett, hogy beismernék, ha nem tudják a választ.
Ahogy a Futurism összefoglalójában is olvasható, az OpenAI szakemberei "jó tesztíróknak" nevezik az LLM-eket, hiszen a tesztekben is érdemesebb behasalni valamilyen választ ahelyett, hogy üresen hagynánk az adott mezőt. Miután a mesterséges intelligencia képzése során binárisan osztályozzák a kimeneteket, vagyis jutalmazzák a helyes válaszokat és büntetik a helytelen megoldásokat, lényegében jutalmazzák a találgatást is, ennek eredményeként pedig az LLM-ek a bizonytalanság elismerése helyett elkezdenek süketelni a „természetes statisztikai nyomás” alatt. Az modellek teljesítményét viszont már a pontosság alapján értékelik, és ilyenkor a hibás válaszok értelemszerűen rosszabbak, mint a tartózkodások.
Az OpenAI "egyszerű megoldásnak" nevezi, hogy a magabiztos hibákat jobban büntessék a bizonytalanságnál, sőt részleges elismerést kell adni a bizonytalanság megfelelő kifejezéséért is. Ez szerintük lebonthatja a hallucinációk felszámolásának az akadályait, a jövőben árnyaltabb LLM-ek kidolgozásához vezethet "gazdagabb pragmatikus kompetenciával". Kérdés, hogy ez tényleg ennyire egyszerű lesz-e, hiszen ha így működik a dolog, akkor az OpenAI és minden epigonja strukturális hibát követett el az MI képzését illetően. Az majd később derül ki, hogy ez a hiba mennyire lesz korrigálható, de az iparágnak mindenképpen kezdenie kell vele valamit, hogy igazolja egyre nagyobb tőkekiadásait és környezeti terhelését.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak