Mivel úgy tűnik, hogy az MI-modellekre jellemző hallucináció – a teljesen légből kapott dolgok magabiztos állítása – nem akadályozza meg a technológia orvosi felhasználását, egy február végén közölt kutatás annak a módját keresi, hogy az egészségügyi szakemberek hogyan konzultálhatnának minél kisebb rizikó mellett a megbízhatatlan szoftverasszisztensekkel. A The Register beszámolója alapján két tucat elismert technológiai és egészségügyi szakértő vállalkozott a vezető modellek fals kimeneteinek katalogizálására és elemzésére, hogy annak alapján hatékonyabb szabályokat alkothassanak az MI egészségügyi célú alkalmazására.
A szerzők (akik nem minden esetben teljesen függetlenek a nagy szállítóktól) ugyanis elismerik az új eszközökben rejlő lehetőségeket a klinikai döntések és az orvosi kutatás támogatásától egészen az egészségügyi ellátás minőségének és biztonságának javításáig, és szigorú korlátozások helyett inkább speciális taxonómiát alkotnának a speciális felhasználásban tapasztalható hibákról. Erre egyrészt azért lenne szükség, mert a pontatlanságok azonnali következményekkel vannak a betegellátásra, másrészt az ilyen típusú hallucinációk szakkifejezésekkel és látszólag koherens logikával nehezítik a szakértői közreműködés nélküli felismerését.
A lélegzetét senki se tartsa vissza
A kutatásban általános célú nagy nyelvi modellek (LLM-ek) képességeit értékelték célzott klinikai feladatokon, és egyes modellek ugyan jobban teljesítettek másoknál, összességében mindegyik program borzalmas hallucinációs rátával dolgozott. A szerzők szerint kiderült ugyan, hogy a jelenlegi LLM architektúrák viszonylag erős mintázatfelismerési és diagnosztikai következtetési képességekkel rendelkeznek az orvosi esetleírások feldolgozásakor, de alapvető feladatokkal (mondjuk a részletes tényszerű és időbeli információk pontos kinyerésével és szintetizálásával) már komoly problémáik vannak.
Ennek alapján a kutatók sürgetik a szabályozást és a hibákért való jogi felelősség megállapítását is, ami egyelőre minimum szürke zónának számít. Szerintük etikai irányelvek és szilárd keretek meghatározására van szükség a betegek biztonsága és az elszámoltathatóság biztosítására, bár arra a cikkben is felhívják rá a figyelmet, hogy a Trump-adminisztráció éppen a Biden-korszak kezdetleges MI-biztonsági szabályainak szétversével foglalkozik, vagyis nem valószínű, hogy azon a szinten válaszolnának a tudósok felhívására. A kutatásból emellett az is kiderül, hogy a gyakorló orvosok saját tapasztalataik ellenére is meglepően nagy arányban bíznak az MI-ben, vagy legalábbis nem szkeptikusak vele kapcsolatban, ami újabb érv lenne az említett keretek minél gyorsabb felépítése mellett.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak