
A nagy nyelvi modellek (LLM) kimeneti pontatlanságai nem mindig vezethetők vissza a források ellenőrzésének hiányosságaira, miután a robotok gyakran állítanak megmagyarázhatatlan, légből kapott dolgokat. Erre a jelenségre általában MI-hallucinációként hivatkoznak, bár van, aki szerint inkább a "bullshit", vagyis a süketelés szóval lenne célszerű jellemezni. A mesterséges intelligencia ugyanis nem érti vagy érzékeli azokat a dolgokat, amelyeket megpróbál átadni, és teljesen közömbös a kimenetek igazságtartalmát illetően is, így a mondvacsinált kijelentései valóban jobban hasonlítanak a céltalan hadoválásra, mint valamilyen tényleges érzékcsalódásra.
Nyilván a terminológia is nagyon fontos, mert ha félrevezető, azzal elfedi a modellek működésének fontos jellemzőit. Ennél is fontosabb lenne azonban a probléma kezelése, hiszen az ilyen jellegű hibák különösen kockázatosak lesznek, ha egyre nagyobb mértékben támaszkodunk majd az MI-eszközökre az orvosi és jogi tanácsadásban vagy más, hasonlóan nagy téttel bíró információk megszerzésében. A megoldást azonban nehezíti, hogy az MI-hallucinációk nem mozognak egy jól behatárolható tartományban, és így meglehetősen haszontalan osztályozást képviselnek a változatos, könnyebben vagy nehezebben javítható hibák összességének meghatározására.
A jelentés szintjén is következetlenek
Az Axios múlt hét végi riportjában Sebastian Farquhar, az Oxfordi Egyetem számítástechnikai tanszékének munkatársát idézi, aki új módszert fejleszt a mesterséges intelligencia "önkényes és helytelen válaszainak" kimutatására. Az ilyesmit náluk sem hallucinációnak, hanem konfabulációnak nevezik: ahogy egy nemrég közzétett tanulmány kapcsán írtuk, a legkorszerűbb MI-modellek érvelési képességeinek látványos összeomlásai nem csak abban állnak, hogy váratlanul kudarcot vallanak az emberek által könnyen megoldható feladatokban, hanem túlzottan bíznak saját rossz megoldásaikban is, amelyeket értelmetlen okoskodással próbálnak igazolni.
A Nature oldalán közölt cikkükben az oxfordi kutatók arra a jelenségre koncentrálnak, amikor egy többféleképpen is kifejezhető gondolat bizonytalanságát nem a szavak sorrendje, hanem a jelentés szintjén számítják. Lényegében ugyanaazt a kérdést teszik fel egymás után az MI-chatbotoknak, és a "szemantikus entrópiát", a válaszok hasonlóságának mértékét értékelik. Ez a megközelítés szerintük már most is 79 százalékos hatékonysággal szűri ki az MI-konfíbulációt, szemben az egyéb módszerekkel elérhető 69 százalékos rátával. Igaz, a módszer az inkonzisztenciára vadászik, és nem tud mit kezdeni vele, ha az MI-t eleve torz vagy hibás adatokon tanították be.
További kihívást jelent, hogy a technika alkalmazása ötször vagy tízszer magasabb számítási teljesítményt igényel a tipikus chatbot-interakciókhoz viszonyítva: a tudósok is elismerik, hogy ez gondot jelent bizonyos alkalmazásoknál, más esetekben viszont teljesen kifizetődő lehet. A konfabuláció észlelésére szolgáló megközelítésekről bővebben az Axios összeállításában olvashat »
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
HPE Morpheus VM Essentials: a virtualizáció arany középútja
Minden, amire valóban szükség van, ügyfélbarát licenceléssel és HPE támogatással - a virtualizációs feladatok teljes életciklusát végigkíséri az EURO ONE Számítástástechnikai Zrt.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?