Az amerikai Rutgers Egyetemmel és a német Ludwig-Maximilians-Universitättel indított közös kutatást a témáról a Szegedi Tudományegyetem egy kutatócsoportja.
Hirdetés
 

Egyre több területen segíti a munkát a mesterséges intelligencia, ám még mindig keveset tudunk arról, hogy mi történik egy chatbot "fejében", amikor választ ad egy kérdésre, vagy értelmez egy utasítást. A Szegedi Tudományegyetem Mesterséges Intelligencia Kompetencia Központja ezt akarja kideríteni egy áprilisban induló kutatás során az amerikai Rutgers Egyetem és a német Ludwig-Maximilians-Universität szakértőivel közösen. A cél meglehetősen ambiciózus: feltárni a generatív nyelvi modellek működését, hogy a technológiát biztonságosabban és hatékonyabban lehessen alkalmazni.

Mint a Szegedi Tudományegyetem közleménye írja, a mesterséges intelligencia képes utánozni az emberi gondolkodást, de azt nem tudjuk, hogy érti-e saját döntéseit. Például ha egy generatív modell tud sakkozni, az továbbra is kérdés, hogy ismeri-e a játékszabályokat, vagy csupán mintázatokat követ, de a játék működését valójában nem érti. A modellek nem építenek ki stabil világmodellt, pedig az kulcsfontosságú lenne a megbízható működéshez.

A RAItHMA HuRelAI kódnéven futó projekt keretében induló kutatás egyik fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, és ezek a fogalmak milyen kapcsolatban állnak egymással. Magyarán, ha egy chatbot igaznak ítél egy állítást, vajon automatikusan hamisnak tartja-e annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem minden esetben teljesül.

Meglepő korlátai vannak a chatbotoknak

"A nagy nyelvi modellek nem a tényleges tudást vagy a szabályok megértését sajátítják el, hanem pusztán a szövegek folytatására épülnek. Ebből kifolyólag a chatbotok olykor olyan alapvető kérdésekben hibáznak, amelyeket adott esetben egy gyermek is képes megválaszolni. Ha például felsoroljuk a hét törpe nevét, majd megkérdezzük, hogy egy adott név szerepelt-e a listán, a modell nem mindig tudja a helyes választ. Az MI képes akár rendkívül összetett matematikai feladatokat is megoldani, ugyanakkor nehezen birkózik meg a halmaz fogalmával és néha egészen egyszerű feladványokkal is. Ha sikerül felderíteni ennek hátterét, nagyot léphetünk előre a mesterséges intelligencia jobb megértése és biztonságosabb, hatékonyabb használata felé" – idézi az SZTE közleménye Dr. Jelasity Márkot, az Interdiszciplináris Kutatásfejlesztési és Innovációs Kiválósági Központ Mesterséges Intelligencia Kompetenciaközpont vezetőjét.

A projekt során megkísérlik feltárni, hogy mi áll ezeknek az ellentmondásoknak a hátterében, milyen belső tudással rendelkezik a modell, és miképpen csökkenthető a kommunikációs zavar ember és gép között. Ha sikerül a kérdésekre választ találni, a kutatók szerint javítható lesz a generatív MI megbízhatósága, és új távlatok is nyithatnak a modellek alkalmazásában.

Az ugyanis komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utána szaladni – a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.

A kutatók szerint, ha pontosabb képet kapunk arról, hogyan "gondolkodnak" a modellek, és milyen hibák jellemzik őket, az hosszú távon segíthet új megközelítéseket kialakítani.

A témáról május 8-án, a CIO Hungaryn is hallhatnak előadást a szegedi kutatócsoport tudományos munkatársától, Farkas Richárd egyetemi docenstől.

Cloud & big data

A robotok újabb bűnözési hullámot indíthatnak az Europol szerint

A robotok, a drónok és a mesterséges intelligencia fejlődésével a fizikai világban is megjelenik minden, ami eddig a digitális világra volt jellemző, nem beszélve arról, ha az automatizálás miatt tényleg tömegek veszítik majd el a megélhetésüket.
 
Hirdetés

Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben

A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.

Sok szervezet adatvezéreltnek tartja magát, mert van BI rendszere és heti dashboardja. A valóságban azonban ennél többről van szó; a kérdés ugyanis nem az, hogy van-e elég adat, hanem, hogy mennyire jól használják a döntések meghozatalához.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.