Mint kiderült, az OpenAI ChatGPT-je és a hozzá hasonló alkalmazások hajlamosak mindenfélét kitalálni és tényként tálalni. Bár így is sokaknak jelentenek segítséget a munkában, a kettő keveredése több mint problémás dolog, és nem biztos, hogy létezik rá megoldás.

Az MI-hallucinációnak nevezett jelenség minden vállalkozásnak, szervezetnek, munkavállalónak vagy akár diáknak problémát jelent, aki egy generatív mesterségesintelligencia-rendszerre támaszkodva próbál dolgozni és dokumentumokat létrehozni. A biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hiányát jelentik, hanem azt, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. Erre szemléletes példa annak a New York-i ügyvédnek az esete, aki egy tárgyaláson volt kénytelen ráébredni, hogy a ChatGPT segítségével összeállított anyaga nem létező bírósági határozatokat tartalmazott hamis idézetekkel és belső hivatkozásokkal.

Miután a szélesebb közönság számára is elérhetővé tett MI-modelleket egyre többen használják nagy téttel bíró feladatokra a tudományos kutatástól a pszichoterápián át a jogi összefoglalások elkészítéséig, az MI-hallucináció is komoly problémát jelent – különösen, hogy a hozzáértők szerint az intelligensnek mondott chatbotokat nem is igazán lehet leszoktatni a halandzsázásról. Bár a ChatGPT-t kiadó OpenAI, a Google, az Anthropic és a nagy nyelvi modelleket (LLM) fejlesztő más cégek azt állítják, hogy dolgoznak a chatbotok megbízhatóságának javításán, senki sem tudja, hogy ez mennyi ideig tart majd, és hogy elég jók lesznek-e valaha is ahhoz, hogy mondjuk a biztonságos orvosi tanácsokat adjanak az embereknek.

Az Associated Press összeállítása ezzel kapcsolatban Emily Bender nyelvészprofesszort, a Washingtoni Egyetem számítógépes nyelvészeti laborának igazgatóját idézi, aki mindezt egyáltalán nem tartja javíthatónak, mert szerinte a technológia és a javasolt használati esetek eltéréséből következik. Ő a nagy nyelvi modelleket olyan rendszerként írja le, ami a szóalakok különböző karakterláncainak valószínűségét modellezi a betanítására használt szöveges információ alapján. Lényegében a helyesírás-ellenőrző is így működik, úgy alakítva a kimenetet, hogy az jobban hasonlítson a célnyelvi szövegekre, és azok is ennek a technológiának egy változatát használják, akik az autocomplete funkcióval írnak üzenetet.

Csiszolgatni lehet, javítani nem biztos

Néhány hónappal ezelőtt mi is idéztük a kognitív tudomány egyik megalapozója, Noam Chomsky cikkét a The New York Times-ból, amelyben arról írt, hogy nagyon rossz irányban keresgél, aki a ChatGPT-t az általános mesterséges intelligencia előfutárának tekinti. Az emberi elme ugyanis nem egyszerűen összefüggéseket keres az adatpontok között, hanem magyarázatokat gyárt akár kis mennyiségű információ alapján is. Vagyis ha egy MI-chatbotok utánozza az emberi kreativitást, akkor azt csak statisztikai valószínűségek alapján teszi, és miközben az intelligencia a racionálisan sejthető magyarázatokat keresi, addig a gépi tanuló rendszerek ugyanúgy megtanulhatják, hogy a Föld lapos, mint azt, hogy a Föld gömbölyű.

Az AP beszámolójában Bender is úgy jellemzi a legújabb chatbotokat, hogy azok új szövegrészletek generálásával próbálnak a következő szintre lépni, de ez továbbra is azt jelenti, hogy kiválasztják a legvalószínűbb következő szót a láncolatban, vagyis belátás nélkül vetítenek. Jól utánozzák tehát az írásbeli formákat a jogi szerződésektőla televíziós forgatókönyveken át a versekig, de ha a kimenetek egy ember számára is helyesnek tűnnek, az kizárólag a véletlen műve. A rendszerek nyilván egyre pontosabbra hangolhatók, de a meghibásodási módok nem tűnnek el, csak a szöveget olvasó embereknek esetleg nehezebb lesz első pillantásra észrevenniük azokat, de nem javul a generatív MI-technológia megbízhatósága.

A hírügynökség felidézi az OpenAI vezérigazgatója, Sam Altman egy júniusi indiai fellépését, amikor reményét fejezte ki, hogy másfél-két éven belül sokkal jobb lesz a helyzet az MI hallucinációival kapcsolatban. Szerinte létezik egyensúly a kreativitás és a tökéletes pontosság között, a modellnek pedig meg kell tanulnia, hogy mikor érdemes az egyiket vagy a másikat választania. Hasonlóan optimista a Microsoft társalapítója, Bill Gates is, aki egy júliusi blogbejegyzésében arról értekezett, hogy a mesterséges intelligencia idővel képes lesz megkülönböztetni a tényeket a fikciótól. A Meta vezető MI-tudósa, Yann LeCun ehhez képest úgy látja, hogy a manapság fejelsztett nagy nyelvi modellek teljes zsákutcának bizonyulnak majd: szerinte építettünk egy kiváló létrát, de ha a Holdra akarunk feljutni, akkor az nem fog összejönni egy létrával.

Piaci hírek

MI-vezérelt embermosógép készül Japánban

A pilótafülkére emlékeztető szerkezet gyors mosó-szárító programot és teljes felfrissülést ígér a felhasználóknak.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.