Az MI-hallucinációnak nevezett jelenség minden vállalkozásnak, szervezetnek, munkavállalónak vagy akár diáknak problémát jelent, aki egy generatív mesterségesintelligencia-rendszerre támaszkodva próbál dolgozni és dokumentumokat létrehozni. A biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hiányát jelentik, hanem azt, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. Erre szemléletes példa annak a New York-i ügyvédnek az esete, aki egy tárgyaláson volt kénytelen ráébredni, hogy a ChatGPT segítségével összeállított anyaga nem létező bírósági határozatokat tartalmazott hamis idézetekkel és belső hivatkozásokkal.
Miután a szélesebb közönság számára is elérhetővé tett MI-modelleket egyre többen használják nagy téttel bíró feladatokra a tudományos kutatástól a pszichoterápián át a jogi összefoglalások elkészítéséig, az MI-hallucináció is komoly problémát jelent – különösen, hogy a hozzáértők szerint az intelligensnek mondott chatbotokat nem is igazán lehet leszoktatni a halandzsázásról. Bár a ChatGPT-t kiadó OpenAI, a Google, az Anthropic és a nagy nyelvi modelleket (LLM) fejlesztő más cégek azt állítják, hogy dolgoznak a chatbotok megbízhatóságának javításán, senki sem tudja, hogy ez mennyi ideig tart majd, és hogy elég jók lesznek-e valaha is ahhoz, hogy mondjuk a biztonságos orvosi tanácsokat adjanak az embereknek.
Az Associated Press összeállítása ezzel kapcsolatban Emily Bender nyelvészprofesszort, a Washingtoni Egyetem számítógépes nyelvészeti laborának igazgatóját idézi, aki mindezt egyáltalán nem tartja javíthatónak, mert szerinte a technológia és a javasolt használati esetek eltéréséből következik. Ő a nagy nyelvi modelleket olyan rendszerként írja le, ami a szóalakok különböző karakterláncainak valószínűségét modellezi a betanítására használt szöveges információ alapján. Lényegében a helyesírás-ellenőrző is így működik, úgy alakítva a kimenetet, hogy az jobban hasonlítson a célnyelvi szövegekre, és azok is ennek a technológiának egy változatát használják, akik az autocomplete funkcióval írnak üzenetet.
Csiszolgatni lehet, javítani nem biztos
Néhány hónappal ezelőtt mi is idéztük a kognitív tudomány egyik megalapozója, Noam Chomsky cikkét a The New York Times-ból, amelyben arról írt, hogy nagyon rossz irányban keresgél, aki a ChatGPT-t az általános mesterséges intelligencia előfutárának tekinti. Az emberi elme ugyanis nem egyszerűen összefüggéseket keres az adatpontok között, hanem magyarázatokat gyárt akár kis mennyiségű információ alapján is. Vagyis ha egy MI-chatbotok utánozza az emberi kreativitást, akkor azt csak statisztikai valószínűségek alapján teszi, és miközben az intelligencia a racionálisan sejthető magyarázatokat keresi, addig a gépi tanuló rendszerek ugyanúgy megtanulhatják, hogy a Föld lapos, mint azt, hogy a Föld gömbölyű.
Az AP beszámolójában Bender is úgy jellemzi a legújabb chatbotokat, hogy azok új szövegrészletek generálásával próbálnak a következő szintre lépni, de ez továbbra is azt jelenti, hogy kiválasztják a legvalószínűbb következő szót a láncolatban, vagyis belátás nélkül vetítenek. Jól utánozzák tehát az írásbeli formákat a jogi szerződésektőla televíziós forgatókönyveken át a versekig, de ha a kimenetek egy ember számára is helyesnek tűnnek, az kizárólag a véletlen műve. A rendszerek nyilván egyre pontosabbra hangolhatók, de a meghibásodási módok nem tűnnek el, csak a szöveget olvasó embereknek esetleg nehezebb lesz első pillantásra észrevenniük azokat, de nem javul a generatív MI-technológia megbízhatósága.
A hírügynökség felidézi az OpenAI vezérigazgatója, Sam Altman egy júniusi indiai fellépését, amikor reményét fejezte ki, hogy másfél-két éven belül sokkal jobb lesz a helyzet az MI hallucinációival kapcsolatban. Szerinte létezik egyensúly a kreativitás és a tökéletes pontosság között, a modellnek pedig meg kell tanulnia, hogy mikor érdemes az egyiket vagy a másikat választania. Hasonlóan optimista a Microsoft társalapítója, Bill Gates is, aki egy júliusi blogbejegyzésében arról értekezett, hogy a mesterséges intelligencia idővel képes lesz megkülönböztetni a tényeket a fikciótól. A Meta vezető MI-tudósa, Yann LeCun ehhez képest úgy látja, hogy a manapság fejelsztett nagy nyelvi modellek teljes zsákutcának bizonyulnak majd: szerinte építettünk egy kiváló létrát, de ha a Holdra akarunk feljutni, akkor az nem fog összejönni egy létrával.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak