Mint kiderült, az OpenAI ChatGPT-je és a hozzá hasonló alkalmazások hajlamosak mindenfélét kitalálni és tényként tálalni. Bár így is sokaknak jelentenek segítséget a munkában, a kettő keveredése több mint problémás dolog, és nem biztos, hogy létezik rá megoldás.

Az MI-hallucinációnak nevezett jelenség minden vállalkozásnak, szervezetnek, munkavállalónak vagy akár diáknak problémát jelent, aki egy generatív mesterségesintelligencia-rendszerre támaszkodva próbál dolgozni és dokumentumokat létrehozni. A biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hiányát jelentik, hanem azt, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. Erre szemléletes példa annak a New York-i ügyvédnek az esete, aki egy tárgyaláson volt kénytelen ráébredni, hogy a ChatGPT segítségével összeállított anyaga nem létező bírósági határozatokat tartalmazott hamis idézetekkel és belső hivatkozásokkal.

Miután a szélesebb közönság számára is elérhetővé tett MI-modelleket egyre többen használják nagy téttel bíró feladatokra a tudományos kutatástól a pszichoterápián át a jogi összefoglalások elkészítéséig, az MI-hallucináció is komoly problémát jelent – különösen, hogy a hozzáértők szerint az intelligensnek mondott chatbotokat nem is igazán lehet leszoktatni a halandzsázásról. Bár a ChatGPT-t kiadó OpenAI, a Google, az Anthropic és a nagy nyelvi modelleket (LLM) fejlesztő más cégek azt állítják, hogy dolgoznak a chatbotok megbízhatóságának javításán, senki sem tudja, hogy ez mennyi ideig tart majd, és hogy elég jók lesznek-e valaha is ahhoz, hogy mondjuk a biztonságos orvosi tanácsokat adjanak az embereknek.

Az Associated Press összeállítása ezzel kapcsolatban Emily Bender nyelvészprofesszort, a Washingtoni Egyetem számítógépes nyelvészeti laborának igazgatóját idézi, aki mindezt egyáltalán nem tartja javíthatónak, mert szerinte a technológia és a javasolt használati esetek eltéréséből következik. Ő a nagy nyelvi modelleket olyan rendszerként írja le, ami a szóalakok különböző karakterláncainak valószínűségét modellezi a betanítására használt szöveges információ alapján. Lényegében a helyesírás-ellenőrző is így működik, úgy alakítva a kimenetet, hogy az jobban hasonlítson a célnyelvi szövegekre, és azok is ennek a technológiának egy változatát használják, akik az autocomplete funkcióval írnak üzenetet.

Csiszolgatni lehet, javítani nem biztos

Néhány hónappal ezelőtt mi is idéztük a kognitív tudomány egyik megalapozója, Noam Chomsky cikkét a The New York Times-ból, amelyben arról írt, hogy nagyon rossz irányban keresgél, aki a ChatGPT-t az általános mesterséges intelligencia előfutárának tekinti. Az emberi elme ugyanis nem egyszerűen összefüggéseket keres az adatpontok között, hanem magyarázatokat gyárt akár kis mennyiségű információ alapján is. Vagyis ha egy MI-chatbotok utánozza az emberi kreativitást, akkor azt csak statisztikai valószínűségek alapján teszi, és miközben az intelligencia a racionálisan sejthető magyarázatokat keresi, addig a gépi tanuló rendszerek ugyanúgy megtanulhatják, hogy a Föld lapos, mint azt, hogy a Föld gömbölyű.

Az AP beszámolójában Bender is úgy jellemzi a legújabb chatbotokat, hogy azok új szövegrészletek generálásával próbálnak a következő szintre lépni, de ez továbbra is azt jelenti, hogy kiválasztják a legvalószínűbb következő szót a láncolatban, vagyis belátás nélkül vetítenek. Jól utánozzák tehát az írásbeli formákat a jogi szerződésektőla televíziós forgatókönyveken át a versekig, de ha a kimenetek egy ember számára is helyesnek tűnnek, az kizárólag a véletlen műve. A rendszerek nyilván egyre pontosabbra hangolhatók, de a meghibásodási módok nem tűnnek el, csak a szöveget olvasó embereknek esetleg nehezebb lesz első pillantásra észrevenniük azokat, de nem javul a generatív MI-technológia megbízhatósága.

A hírügynökség felidézi az OpenAI vezérigazgatója, Sam Altman egy júniusi indiai fellépését, amikor reményét fejezte ki, hogy másfél-két éven belül sokkal jobb lesz a helyzet az MI hallucinációival kapcsolatban. Szerinte létezik egyensúly a kreativitás és a tökéletes pontosság között, a modellnek pedig meg kell tanulnia, hogy mikor érdemes az egyiket vagy a másikat választania. Hasonlóan optimista a Microsoft társalapítója, Bill Gates is, aki egy júliusi blogbejegyzésében arról értekezett, hogy a mesterséges intelligencia idővel képes lesz megkülönböztetni a tényeket a fikciótól. A Meta vezető MI-tudósa, Yann LeCun ehhez képest úgy látja, hogy a manapság fejelsztett nagy nyelvi modellek teljes zsákutcának bizonyulnak majd: szerinte építettünk egy kiváló létrát, de ha a Holdra akarunk feljutni, akkor az nem fog összejönni egy létrával.

Piaci hírek

Emberként még iskolába se járhatna, de 200 millió telefonnál jár a kínai brand

A Realme illusztris társaságba került a mérföldkő gyors elérésével. A teljesítmény értékét tovább növeli, hogy a forgalom nagy része Kínán kívül realizálódik.
 
Hirdetés

Ráfizetünk, ha a védelmen spórolunk!

Ha a védelmen spórolunk, kiberbűncselekmény áldozatává válhatunk. A Sophos MRD (észlelő és helyzetkező) szolgáltatása védelmet nyújt.

Összeurópai szabályozás készteti a cégeket a biztonságosabb informatikai működésre, de a megvalósításhoz nemcsak technológia, hanem emberek is kellenek.
Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.