Az megszokott dolognak számít, hogy a mesterségesintelligencia-rendszerek időnként bután viselkednek, de a The BMJ tudományos folyóiratban közölt cikk szerint az életkorukkal összefüggésben is az enyhe kognitív károsodás egyértelmű jeleit mutatják, hasonlóan az emberekre jellemző demenciához. A szerzők megállapítják, hogy a csúcstechnológiát képviselő MI-modellek már általános célú és speciális feladatokat is képesek sikeresen végrehajtani egyszerű szövegalapú interakciók segítségével, ami nagyon izgalmasnak tűnik az orvosi alkalmazásokban és más tudományterületeken is, de a szélsőséges várakozások mellett fontos lenne tisztázni a nagy nyelvi modellek pontosságának korlátait és a meglévő munkafolyamatokba való integrálásának nehézségeit is.
Így természetesen a kutatás célja sem a mesterséges intelligencia pontos ideggyógyászati diagnózisa volt, hanem annak azoknak a kutatási eredményeknek az árnyalása, amelyek szerint a technológia már elég kompetens az orvosi diagnosztikai eszközként való felhasználásra. A cikkben ismertetett eredmények legalábbis megkérdőjelezik, hogy a mesterséges intelligencia hamarosan felválthatná az emberi orvosokat: a vezető MI-chatbotoknál tapasztalt kognitív károsodás a tudósok szerint ezen a területen is befolyásolhatja megbízhatóságukat, nem beszélve a betegek bizalmának elvesztéséről, amit egyébként is meghatározó tényezőnek tartanak az MI-alkalmazások sikerében.
Jobban illenek a váróterembe, mint a rendelőbe
Ahogy írják, a félretájékoztatás kockázatának és a félretájékoztatás megelőzésére szolgáló biztosítékok felmérésén túl még senkinek sem jutott eszébe, hogy ha MI-eszközöket használ a demencia kialakulásának meghatározására, akkor magát a mesterséges intelligenciát is megvizsgálja az ilyen jellegű mentális hanyatlás jelei után kutatva. Márpedig a tanulmány alapján nemcsak léteznek ezek a jelek, hanem az emberekhez hasonlóan idővel egyre kifejezettebbé válnak, mivel a régebbi nagy nyelvi modellek teljesítettek a leggyengébben a demencia korai jeleinek kimutatására szolgáló Montreal Cognitive Assessment (MoCA) teszt során, élükön a Gemini 1.0 és 1.5 modellekkel.
Igaz, hogy az MI-chatbotok kiválóan szerepeltek a legtöbb feladattípusban, de voltak olyan területek is, ahol komoly nehézségekbe ütköztek: ilyenek például az úgynevezett Trail Making tesztek, a meghatározott időpontokat mutató órák rajzolása vagy a rövid szósorozatok felidézése. Bár az ilyesmi nem határozza meg általánosságban a modellek képességeit, elég nyilvánvaló, hogy miért lehet problémás az orvosi alkalmazásokban végzett információfeldolgozásban. A megvizsgált MI-chatbotok emellett az empátia riasztó hiányát mutatták, amire a frontotemporális demencia jellegzetes tüneteként hivatkoznak – bár a gépi intelligencia eleve közömbös a saját kimeneteit illetően, valószínűleg senki sem szeretné, hogy az orvosa egy gyakorló pszichopata legyen.
Mindez felveti az MI antropomorfizálásának kérdését is: az MI-iparág mindent megtesz, hogy tudatos entitásként tekintsünk a mesterséges intelligenciára, miközben a kutatók maguk is felhívják a figyelmet az emberi agy és a nagy nyelvi modellek működése közötti lényeges különbségekre. Mostani eredményeik alapján mindenesetre azt feltételezik, hogy ha a neurológusokat nem is váltja fel egyhamar a mesterséges intelligencia, az MI-modellek kognitív károsodásai arra utalnak, hogy az új virtuális betegek és betegségek megjelenésével azért számolnunk kell.
Felhőbe vezető út hazai szakértelemmel
Robusztus műszaki háttér, korszerű technológia és a felhasználóbarát kezelhetőség. A Flex Cloudhoz nem kell nagy IT-csapat, csak egy elhatározás és pár kattintás.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak