Egyre több területen segíti a munkát a mesterséges intelligencia, ám még mindig keveset tudunk arról, hogy mi történik egy chatbot "fejében", amikor választ ad egy kérdésre, vagy értelmez egy utasítást. A Szegedi Tudományegyetem Mesterséges Intelligencia Kompetencia Központja ezt akarja kideríteni egy áprilisban induló kutatás során az amerikai Rutgers Egyetem és a német Ludwig-Maximilians-Universität szakértőivel közösen. A cél meglehetősen ambiciózus: feltárni a generatív nyelvi modellek működését, hogy a technológiát biztonságosabban és hatékonyabban lehessen alkalmazni.
Mint a Szegedi Tudományegyetem közleménye írja, a mesterséges intelligencia képes utánozni az emberi gondolkodást, de azt nem tudjuk, hogy érti-e saját döntéseit. Például ha egy generatív modell tud sakkozni, az továbbra is kérdés, hogy ismeri-e a játékszabályokat, vagy csupán mintázatokat követ, de a játék működését valójában nem érti. A modellek nem építenek ki stabil világmodellt, pedig az kulcsfontosságú lenne a megbízható működéshez.
A RAItHMA HuRelAI kódnéven futó projekt keretében induló kutatás egyik fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, és ezek a fogalmak milyen kapcsolatban állnak egymással. Magyarán, ha egy chatbot igaznak ítél egy állítást, vajon automatikusan hamisnak tartja-e annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem minden esetben teljesül.
Meglepő korlátai vannak a chatbotoknak
"A nagy nyelvi modellek nem a tényleges tudást vagy a szabályok megértését sajátítják el, hanem pusztán a szövegek folytatására épülnek. Ebből kifolyólag a chatbotok olykor olyan alapvető kérdésekben hibáznak, amelyeket adott esetben egy gyermek is képes megválaszolni. Ha például felsoroljuk a hét törpe nevét, majd megkérdezzük, hogy egy adott név szerepelt-e a listán, a modell nem mindig tudja a helyes választ. Az MI képes akár rendkívül összetett matematikai feladatokat is megoldani, ugyanakkor nehezen birkózik meg a halmaz fogalmával és néha egészen egyszerű feladványokkal is. Ha sikerül felderíteni ennek hátterét, nagyot léphetünk előre a mesterséges intelligencia jobb megértése és biztonságosabb, hatékonyabb használata felé" – idézi az SZTE közleménye Dr. Jelasity Márkot, az Interdiszciplináris Kutatásfejlesztési és Innovációs Kiválósági Központ Mesterséges Intelligencia Kompetenciaközpont vezetőjét.
A projekt során megkísérlik feltárni, hogy mi áll ezeknek az ellentmondásoknak a hátterében, milyen belső tudással rendelkezik a modell, és miképpen csökkenthető a kommunikációs zavar ember és gép között. Ha sikerül a kérdésekre választ találni, a kutatók szerint javítható lesz a generatív MI megbízhatósága, és új távlatok is nyithatnak a modellek alkalmazásában.
Az ugyanis komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utána szaladni – a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.
A kutatók szerint, ha pontosabb képet kapunk arról, hogyan "gondolkodnak" a modellek, és milyen hibák jellemzik őket, az hosszú távon segíthet új megközelítéseket kialakítani.
A témáról május 8-án, a CIO Hungaryn is hallhatnak előadást a szegedi kutatócsoport tudományos munkatársától, Farkas Richárd egyetemi docenstől.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak