Bár az OpenAI vezérigazgatója, Sam Altman szerint a vállalat már világosan látja az emberi képességeket tükröző vagy azokat túl is haladó mesterséges általános intelligencia (AGI) felépítéséhez vezető utat, a gyakorlati tapasztalatok egyelőre nem sokban támasztják alá a befektetőknek szóló sikerpropagandát. Sorra jelennek meg a kutatások azzal kapcsolatban, hogy a legkifinomultabbnak mondott nagy nyelvi modellek (LLM) is elhasalnak az egyszerű, általunk könnyen megoldható logikai feladványokon, beleértve az OpenAI legújabb, emberszerű következtetési képességekkel jellemzett o1 modelljét is.
A kritikusok szerint az iparág vezető szereplőinek magas értékelése nagyrészt azon a téves elképzelésen alapul, hogy az LLM-ek teljesítménye a méretezéstől függően korlátlanul fejleszthető. Bár ennek korlátai egyre nyilvánvalóbbá válnak, az MI-cégek folyamatosan keresik (és állításuk szerint meg is találják) a megoldást a problémára, amire feltétlenül szükségük lenne a modellek gazdaságossá tételéhez és saját működésük nyereségessé válásához is. Az AGI megalkotása viszont még ennél is távolibbnak tűnik, legalábbis ha tényleg az emberi képességek másolása a cél, és nem a hatékony céleszközök létrehozása.
Szép, szép, de asztalnál meghalna
A Walter Bradley Center for Natural and Artificial Intelligence vezető munkatársa, Gary Smith néhány nappal ezelőtt tette közzé egy érdekes kísérlet eredményét, amelynek során az OpenAI o1, illetve a Google Gemini 2.0 Flash, a Microsoft Bing Copilot (GPT 4) és az Anthropic Claude megoldásait eresztette rá a New York Times felkapott Connections játékára. Ebben hogy 16 szót kell négyes csoportokra osztani valamilyen közös, kézenfekvő vagy nagyon is elvont jellemzőjük alapján – a rejtvény pedig akármilyen trükkös, a népszerűségét nyilván nem annak köszönheti, hogy csak akadémikusoknak érdemes játszaniuk vele.
Smith szerint a fenti modellek mindegyike kudarcot vallott kudarcot vallott: bár voltak jó megoldásaik is, a többi megfejtésük "a bizarrság határán" billegett, ahogy egymáshoz nem illő szavakat párosítottak egymással képtelen indoklások mellett. Ahogy a kommentárok megjegyzik, ez különösen kellemetlen az o1 esetében, amelynek éppen az ilyen irányú képességei miatt kellene kiemelkednie a mezőnyből. A Mind Matters oldalán közölt bejegyzés pedig ismét rávilágít, hogy a jelenlegi MI-technológiák teljesítményét a képzési adatok határozzák meg, de a szó tényleges értelmében cseppet sem intelligensek.
Eközben a nagy techvállalatok vezetői rendszeresen a tűz vagy a kerék felfedezéséhez hasonlítják az MI jelentőségét, és már erre az évre megjósolták az AGI bemutatkozását. Smith véleménye szerint abban nincs okunk kételkedni, hogy a nagy nyelvi modellek kimenetei a jövőben is folyamatos, szerény javulást mutatnak majd a humán trénerek munkájának köszönhetően. Megérteni azonban továbbra sem fognak semmit, a feldolgozott adattömegben megjelenő statisztikai minták azonosítása pedig nem vezet el sem a mesterséges általános intelligencia, sem a sokat emlegetett "szuperintelligencia" megszületéséhez.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak