Az elgépelések, a szövegformázási hibák, a szleng, sőt akár a színes vagy érzelmes nyelvezet is elég hozzá, hogy megzavarja az orvosi tanácsokat adó mesterséges intelligenciát – állapították meg júniusban bemutatott tanulmányukban az MIT kutatói, amelyben azt vizsgálták, hogy a nem klinika információ hogyan befolyásolja a nagy nyelvi modellek (LLM-ek) klinikai döntéseit. Egyikük pedig a Boston Globe-nak néhány nappal ezelőtt adott új interjúban azokra a súlyos következményekre figyelmeztetett, amelyet ezek a tévedések okozhatnak, ha az orvosok széles körben támaszkodnak az MI-technológiájára.
Ahogy korábban már egy másik, februárban közölt kutatás is bemutatta, a jelenlegi LLM architektúrák már erősnek mondható mintafelismerési és diagnosztikai következtetési képességekkel rendelkeznek az orvosi esetleírások feldolgozásakor, de problémáik vannak olyan alapvető feladatokkal, mint amilyen a részletes tényszerű és időbeli információ pontos kinyerése. A szerzők ráadásul azt is megállapították, hogy a gyakorló orvosok saját tapasztalataik ellenére is meglepően nagy arányban bíznak a mesterséges intelligenciában, vagy legalábbis nem szkeptikusak vele kapcsolatban.
A Boston Globe cikke szerint is valós veszély, hogy az MI diszkriminálhatja azokat, akik hibásan használják az adott nyelvet, vagy csak érzelmi oldalról közelítenek egészségügyi problémáikhoz. A kísérletek során valós orvosi feljegyzéseket módosítottak anélkül, hogy a lényeget megváltoztatták volna. Elütéseket, szóközöket vagy a formálistól eltérő nyelvtant használtak, és olyan kifejezéseket is alkalmaztak, mint a "valamennyire" vagy a "lehetséges". Ennek nyomán a vizsgált MI-eszközök 7-9 százalékkal nagyobb valószínűséggel jutottak arra, hogy a betegeknek nincs szükségük orvosi ellátásra.
Erre nehéz úgy tekinteni, hogy majd kialakul
A lapnak nyilatkozó másik szakember mindezt olyan összetett problémának nevezte, amit a fejlettebb érvelési modellek már valamelyest kezelnek, de alapvető megoldást nem jelentenek rá. A Futurism riportja erről szólva kiemeli, hogy az MI-technológiára a kezdetektől jellemző hallucinációk nem javulnak érdemben, a fenti kutatásban tesztelt MI-eszközöknél pedig megfigyelhető volt például, hogy nagyobb részben adtak helytelen tanácsokat az általuk nőként azonosított betegeknek – ráadásul ebben az azonosításban akkor is sikeresek voltak, ha a panaszokból kivágták a nemre vonatkozó utalásokat.
Ebben a beszámolóban egyébként egy olyan tanulmányt is idéznek, amelyik megállapította, hogy a mesterségesintelligencia-eszközökre "rákattanó" orvosok képessége mérhetően romlik a rákmegelőző állapotok felismerését illetően, ha később valamilyen okból nem támaszkodhatnak ezekre az alkalmazásokra. Ez pedig ördögi kört jelent, hiszen a megfelelő készségek visszafejlődésével az MI-kimenetek hibáit is nehezebb kiszűrni. Az MIT kutatásának értelmében ez a betegekkel való kommunikáció és kapcsolódás képességére is igaz lehet, ami ugyancsak meghatározza az orvosok munkáját.
Nem meglepő, hogy másokhoz hasonlóan ennek az elemzésnek a szerzői is szigorúbb szabályozást sürgetnek, ha már a technológia elterjedésére nem lehetünk meghatározó befolyással. Ebben a méltányosságot kötelező teljesítmény-szabványként kezelnék a klinikai felhasználásba küldött mesterséges intelligencia számára, amit ennek érdekében különböző, reprezentatív adathalmazokon kellene képezni. Sokan a hibákért való jogi felelősség megállapítását is elengedhetetlennek tartják, ami egyelőre szürke zóna, és nem úgy tűnik, hogy az a helyzet belátható időn belül megváltozna.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak