A hallucinációnak nevezett jelenség egy olyan megoldatlan probléma a mesterségesintelligencia-iparágban, ami jelentősen aláássa a technológia hasznosságát. A biológiai agy hallucinációira emlékeztető kimeneti pontatlanságokra jellemző, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat, de egyesek szerint már a terminológia is teljesen félrevezető: a nagy nyelvi modellek (LLM-ek) ugyanis nem olyasmit próbálnak átadni, amit saját maguk érzékelnek vagy értenek, és a kimeneteik igazságát illetően is közömbösek, így a Glasgow-i Egyetem kutatói például amellett kardoskodnak, hogy a működésüket inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni.
A helyzet ráadásul még annál is rosszabb, mint elsőre tűnhet, mivel a tapasztalat szerint a hallucináció az MI-modellek hatékonyságának növekedésével nem enyhül, hanem ellenkezőleg, egyre súlyosbodik. A paraméterek, a képzési adatok és más tényezők bővülése ugyanis az összetettebb kérdések feldolgozása mellett a helytelen válaszok arányát is növeli: az LLM-ek egyre meggyőzőbben képesek eljátszani, hogy értenek valamihez, és majdnem mindenre határozottan válaszolnak, miközben még a triviális kérdéseken is folyamatosan elvéreznek. Nem kivétel ez aló az OpenAI legújabb GPT-5 modellje sem, ami a gyártó szerint kevesebbet hallucinál, de a felhasználók beszámolói ezt a legkevésbé sem támasztják alá.
Könnyű belátni, hogy az MI-hallucináció megoldatlansága alapvető ellentmondásban van a mesterséges intelligenciát fejlesztő cégek ígéreteivel az emberi képességeket idéző, vagy azokat meg is haladó mesterséges általános intelligencia (AGI) küszöbön álló megjelenéséről. Miközben a befektetők nehezen indokolható összegeket tolnak az MI-vállalatokba és a technológiával összefüggő infrastrukturális beruházásokba, sokan amellett érvelnek, hogy a hallucinációra hiába keresnek megoldást, mert az az LLM-ek lényegi működéséből fakad. Ennek értelmében pedig a nagy nyelvi modellek zsákutcát jelentenének az olyan MI felépítésére irányuló erőfeszítésekben, ami képes megbízhatóan értékelni a tényszerű állításokat.
Már az OpenAI sem köti az ebet a karóhoz
Ha valóban erről van szó, akkor nem szorul magyarázatra, hogy a dolog milyen szűk keretek közé szorítaná a mesterséges intelligencia üzleti alkalmazásait – legalábbis a már befektetett összegek és a cserébe elvárt megtérülés tekintetében. Ahogy lassan kiderül, hogy a generatív MI-ből nem lesz mindenre alkalmas csodaszer, és a káoszt sem lehet automatizálni, egy múlt héten megjelent tanulmányukban már az OpenAI kutatói is érdemi magyarázatot keresnek az MI-hallucinációra ahelyett, hogy az újabb és újabb kiadásoktól várná a probléma felszívódását. Ahogy írják, a nagy nyelvi modellek talán azért hallucinálnak, mert létrehozásukkor találgatásra ösztönzik őket, ahelyett, hogy beismernék, ha nem tudják a választ.
Ahogy a Futurism összefoglalójában is olvasható, az OpenAI szakemberei "jó tesztíróknak" nevezik az LLM-eket, hiszen a tesztekben is érdemesebb behasalni valamilyen választ ahelyett, hogy üresen hagynánk az adott mezőt. Miután a mesterséges intelligencia képzése során binárisan osztályozzák a kimeneteket, vagyis jutalmazzák a helyes válaszokat és büntetik a helytelen megoldásokat, lényegében jutalmazzák a találgatást is, ennek eredményeként pedig az LLM-ek a bizonytalanság elismerése helyett elkezdenek süketelni a „természetes statisztikai nyomás” alatt. Az modellek teljesítményét viszont már a pontosság alapján értékelik, és ilyenkor a hibás válaszok értelemszerűen rosszabbak, mint a tartózkodások.
Az OpenAI "egyszerű megoldásnak" nevezi, hogy a magabiztos hibákat jobban büntessék a bizonytalanságnál, sőt részleges elismerést kell adni a bizonytalanság megfelelő kifejezéséért is. Ez szerintük lebonthatja a hallucinációk felszámolásának az akadályait, a jövőben árnyaltabb LLM-ek kidolgozásához vezethet "gazdagabb pragmatikus kompetenciával". Kérdés, hogy ez tényleg ennyire egyszerű lesz-e, hiszen ha így működik a dolog, akkor az OpenAI és minden epigonja strukturális hibát követett el az MI képzését illetően. Az majd később derül ki, hogy ez a hiba mennyire lesz korrigálható, de az iparágnak mindenképpen kezdenie kell vele valamit, hogy igazolja egyre nagyobb tőkekiadásait és környezeti terhelését.
A kifizetett energia
60%-a elvész, de egy audit feltárja, hol folyik el a pénzünk
A Schneider Electric energiahatékonysági szolgáltatása átfogó megoldást kínál, amely támogatja a cégek energiahatékonyság-növelési programjaik megvalósításában, az iparágban vezető megoldások, szolgáltatások és szakértők segítségével.
Hatékony adattárolás, biztonságosabb működés: HPE storage az EURO ONE szakértelmével
Az adatmennyiség rohamos növekedése, a kritikus üzleti alkalmazások rendelkezésre állási követelményei és a kiberbiztonsági fenyegetések mind olyan tényezők, amelyek túlmutatnak a hagyományos storage-megoldások képességein.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak