Mint kiderült, az OpenAI ChatGPT-je és a hozzá hasonló alkalmazások hajlamosak mindenfélét kitalálni és tényként tálalni. Bár így is sokaknak jelentenek segítséget a munkában, a kettő keveredése több mint problémás dolog, és nem biztos, hogy létezik rá megoldás.
Hirdetés
 

Az MI-hallucinációnak nevezett jelenség minden vállalkozásnak, szervezetnek, munkavállalónak vagy akár diáknak problémát jelent, aki egy generatív mesterségesintelligencia-rendszerre támaszkodva próbál dolgozni és dokumentumokat létrehozni. A biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hiányát jelentik, hanem azt, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. Erre szemléletes példa annak a New York-i ügyvédnek az esete, aki egy tárgyaláson volt kénytelen ráébredni, hogy a ChatGPT segítségével összeállított anyaga nem létező bírósági határozatokat tartalmazott hamis idézetekkel és belső hivatkozásokkal.

Miután a szélesebb közönság számára is elérhetővé tett MI-modelleket egyre többen használják nagy téttel bíró feladatokra a tudományos kutatástól a pszichoterápián át a jogi összefoglalások elkészítéséig, az MI-hallucináció is komoly problémát jelent – különösen, hogy a hozzáértők szerint az intelligensnek mondott chatbotokat nem is igazán lehet leszoktatni a halandzsázásról. Bár a ChatGPT-t kiadó OpenAI, a Google, az Anthropic és a nagy nyelvi modelleket (LLM) fejlesztő más cégek azt állítják, hogy dolgoznak a chatbotok megbízhatóságának javításán, senki sem tudja, hogy ez mennyi ideig tart majd, és hogy elég jók lesznek-e valaha is ahhoz, hogy mondjuk a biztonságos orvosi tanácsokat adjanak az embereknek.

Az Associated Press összeállítása ezzel kapcsolatban Emily Bender nyelvészprofesszort, a Washingtoni Egyetem számítógépes nyelvészeti laborának igazgatóját idézi, aki mindezt egyáltalán nem tartja javíthatónak, mert szerinte a technológia és a javasolt használati esetek eltéréséből következik. Ő a nagy nyelvi modelleket olyan rendszerként írja le, ami a szóalakok különböző karakterláncainak valószínűségét modellezi a betanítására használt szöveges információ alapján. Lényegében a helyesírás-ellenőrző is így működik, úgy alakítva a kimenetet, hogy az jobban hasonlítson a célnyelvi szövegekre, és azok is ennek a technológiának egy változatát használják, akik az autocomplete funkcióval írnak üzenetet.

Csiszolgatni lehet, javítani nem biztos

Néhány hónappal ezelőtt mi is idéztük a kognitív tudomány egyik megalapozója, Noam Chomsky cikkét a The New York Times-ból, amelyben arról írt, hogy nagyon rossz irányban keresgél, aki a ChatGPT-t az általános mesterséges intelligencia előfutárának tekinti. Az emberi elme ugyanis nem egyszerűen összefüggéseket keres az adatpontok között, hanem magyarázatokat gyárt akár kis mennyiségű információ alapján is. Vagyis ha egy MI-chatbotok utánozza az emberi kreativitást, akkor azt csak statisztikai valószínűségek alapján teszi, és miközben az intelligencia a racionálisan sejthető magyarázatokat keresi, addig a gépi tanuló rendszerek ugyanúgy megtanulhatják, hogy a Föld lapos, mint azt, hogy a Föld gömbölyű.

Az AP beszámolójában Bender is úgy jellemzi a legújabb chatbotokat, hogy azok új szövegrészletek generálásával próbálnak a következő szintre lépni, de ez továbbra is azt jelenti, hogy kiválasztják a legvalószínűbb következő szót a láncolatban, vagyis belátás nélkül vetítenek. Jól utánozzák tehát az írásbeli formákat a jogi szerződésektőla televíziós forgatókönyveken át a versekig, de ha a kimenetek egy ember számára is helyesnek tűnnek, az kizárólag a véletlen műve. A rendszerek nyilván egyre pontosabbra hangolhatók, de a meghibásodási módok nem tűnnek el, csak a szöveget olvasó embereknek esetleg nehezebb lesz első pillantásra észrevenniük azokat, de nem javul a generatív MI-technológia megbízhatósága.

A hírügynökség felidézi az OpenAI vezérigazgatója, Sam Altman egy júniusi indiai fellépését, amikor reményét fejezte ki, hogy másfél-két éven belül sokkal jobb lesz a helyzet az MI hallucinációival kapcsolatban. Szerinte létezik egyensúly a kreativitás és a tökéletes pontosság között, a modellnek pedig meg kell tanulnia, hogy mikor érdemes az egyiket vagy a másikat választania. Hasonlóan optimista a Microsoft társalapítója, Bill Gates is, aki egy júliusi blogbejegyzésében arról értekezett, hogy a mesterséges intelligencia idővel képes lesz megkülönböztetni a tényeket a fikciótól. A Meta vezető MI-tudósa, Yann LeCun ehhez képest úgy látja, hogy a manapság fejelsztett nagy nyelvi modellek teljes zsákutcának bizonyulnak majd: szerinte építettünk egy kiváló létrát, de ha a Holdra akarunk feljutni, akkor az nem fog összejönni egy létrával.

Piaci hírek

A robotok újabb bűnözési hullámot indíthatnak az Europol szerint

A robotok, a drónok és a mesterséges intelligencia fejlődésével a fizikai világban is megjelenik minden, ami eddig a digitális világra volt jellemző, nem beszélve arról, ha az automatizálás miatt tényleg tömegek veszítik majd el a megélhetésüket.
 
Hirdetés

Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben

A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.

Sok szervezet adatvezéreltnek tartja magát, mert van BI rendszere és heti dashboardja. A valóságban azonban ennél többről van szó; a kérdés ugyanis nem az, hogy van-e elég adat, hanem, hogy mennyire jól használják a döntések meghozatalához.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.