Az amerikai Rutgers Egyetemmel és a német Ludwig-Maximilians-Universitättel indított közös kutatást a témáról a Szegedi Tudományegyetem egy kutatócsoportja.
Hirdetés
 

Egyre több területen segíti a munkát a mesterséges intelligencia, ám még mindig keveset tudunk arról, hogy mi történik egy chatbot "fejében", amikor választ ad egy kérdésre, vagy értelmez egy utasítást. A Szegedi Tudományegyetem Mesterséges Intelligencia Kompetencia Központja ezt akarja kideríteni egy áprilisban induló kutatás során az amerikai Rutgers Egyetem és a német Ludwig-Maximilians-Universität szakértőivel közösen. A cél meglehetősen ambiciózus: feltárni a generatív nyelvi modellek működését, hogy a technológiát biztonságosabban és hatékonyabban lehessen alkalmazni.

Mint a Szegedi Tudományegyetem közleménye írja, a mesterséges intelligencia képes utánozni az emberi gondolkodást, de azt nem tudjuk, hogy érti-e saját döntéseit. Például ha egy generatív modell tud sakkozni, az továbbra is kérdés, hogy ismeri-e a játékszabályokat, vagy csupán mintázatokat követ, de a játék működését valójában nem érti. A modellek nem építenek ki stabil világmodellt, pedig az kulcsfontosságú lenne a megbízható működéshez.

A RAItHMA HuRelAI kódnéven futó projekt keretében induló kutatás egyik fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, és ezek a fogalmak milyen kapcsolatban állnak egymással. Magyarán, ha egy chatbot igaznak ítél egy állítást, vajon automatikusan hamisnak tartja-e annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem minden esetben teljesül.

Meglepő korlátai vannak a chatbotoknak

"A nagy nyelvi modellek nem a tényleges tudást vagy a szabályok megértését sajátítják el, hanem pusztán a szövegek folytatására épülnek. Ebből kifolyólag a chatbotok olykor olyan alapvető kérdésekben hibáznak, amelyeket adott esetben egy gyermek is képes megválaszolni. Ha például felsoroljuk a hét törpe nevét, majd megkérdezzük, hogy egy adott név szerepelt-e a listán, a modell nem mindig tudja a helyes választ. Az MI képes akár rendkívül összetett matematikai feladatokat is megoldani, ugyanakkor nehezen birkózik meg a halmaz fogalmával és néha egészen egyszerű feladványokkal is. Ha sikerül felderíteni ennek hátterét, nagyot léphetünk előre a mesterséges intelligencia jobb megértése és biztonságosabb, hatékonyabb használata felé" – idézi az SZTE közleménye Dr. Jelasity Márkot, az Interdiszciplináris Kutatásfejlesztési és Innovációs Kiválósági Központ Mesterséges Intelligencia Kompetenciaközpont vezetőjét.

A projekt során megkísérlik feltárni, hogy mi áll ezeknek az ellentmondásoknak a hátterében, milyen belső tudással rendelkezik a modell, és miképpen csökkenthető a kommunikációs zavar ember és gép között. Ha sikerül a kérdésekre választ találni, a kutatók szerint javítható lesz a generatív MI megbízhatósága, és új távlatok is nyithatnak a modellek alkalmazásában.

Az ugyanis komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utána szaladni – a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.

A kutatók szerint, ha pontosabb képet kapunk arról, hogyan "gondolkodnak" a modellek, és milyen hibák jellemzik őket, az hosszú távon segíthet új megközelítéseket kialakítani.

A témáról május 8-án, a CIO Hungaryn is hallhatnak előadást a szegedi kutatócsoport tudományos munkatársától, Farkas Richárd egyetemi docenstől.

Cloud & big data

Hasznos trükköt tanult a Gemini

A Google generatív MI-asszisztense mostantól a felhasználói kívánalmak alapján egy sor népszerű fájlformátumban is képes prezentálni válaszát már magában a beszélgetési ablakban.
 
Hirdetés

A jövőálló digitális megoldások sikere az üzleti értékteremtésben mérhető

Az informatikai fejlesztések gyakran technológiai kérdésként jelennek meg, pedig egy kódsor vagy digitális megoldás önmagában soha nem lehet végcél. A 4D Soft több mint 35 éve ennek szellemében fókuszál a projektek negyedik dimenziójára: az üzleti értékteremtésre.

A biztonság ’balra tolódása’ az alkalmazásfejlesztésben nem csak technikai kérdés. A DevSecOps-elvek érvényesüléséhez az IT-szervezet működését és más területekhez való viszonyát is újra kell szabni.

a melléklet támogatója a Clico

Hirdetés

A hibakeresés nem egyenlő az alkalmazásbiztonsággal

Építsünk olyan AppSec környezetet, amely csökkenti az alkalmazásfejlesztés kockázatait, de nem válik a gyors leszállítás akadályává!

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.