Mivel úgy tűnik, hogy az MI-modellekre jellemző hallucináció – a teljesen légből kapott dolgok magabiztos állítása – nem akadályozza meg a technológia orvosi felhasználását, egy február végén közölt kutatás annak a módját keresi, hogy az egészségügyi szakemberek hogyan konzultálhatnának minél kisebb rizikó mellett a megbízhatatlan szoftverasszisztensekkel. A The Register beszámolója alapján két tucat elismert technológiai és egészségügyi szakértő vállalkozott a vezető modellek fals kimeneteinek katalogizálására és elemzésére, hogy annak alapján hatékonyabb szabályokat alkothassanak az MI egészségügyi célú alkalmazására.
A szerzők (akik nem minden esetben teljesen függetlenek a nagy szállítóktól) ugyanis elismerik az új eszközökben rejlő lehetőségeket a klinikai döntések és az orvosi kutatás támogatásától egészen az egészségügyi ellátás minőségének és biztonságának javításáig, és szigorú korlátozások helyett inkább speciális taxonómiát alkotnának a speciális felhasználásban tapasztalható hibákról. Erre egyrészt azért lenne szükség, mert a pontatlanságok azonnali következményekkel vannak a betegellátásra, másrészt az ilyen típusú hallucinációk szakkifejezésekkel és látszólag koherens logikával nehezítik a szakértői közreműködés nélküli felismerését.
A lélegzetét senki se tartsa vissza
A kutatásban általános célú nagy nyelvi modellek (LLM-ek) képességeit értékelték célzott klinikai feladatokon, és egyes modellek ugyan jobban teljesítettek másoknál, összességében mindegyik program borzalmas hallucinációs rátával dolgozott. A szerzők szerint kiderült ugyan, hogy a jelenlegi LLM architektúrák viszonylag erős mintázatfelismerési és diagnosztikai következtetési képességekkel rendelkeznek az orvosi esetleírások feldolgozásakor, de alapvető feladatokkal (mondjuk a részletes tényszerű és időbeli információk pontos kinyerésével és szintetizálásával) már komoly problémáik vannak.
Ennek alapján a kutatók sürgetik a szabályozást és a hibákért való jogi felelősség megállapítását is, ami egyelőre minimum szürke zónának számít. Szerintük etikai irányelvek és szilárd keretek meghatározására van szükség a betegek biztonsága és az elszámoltathatóság biztosítására, bár arra a cikkben is felhívják rá a figyelmet, hogy a Trump-adminisztráció éppen a Biden-korszak kezdetleges MI-biztonsági szabályainak szétversével foglalkozik, vagyis nem valószínű, hogy azon a szinten válaszolnának a tudósok felhívására. A kutatásból emellett az is kiderül, hogy a gyakorló orvosok saját tapasztalataik ellenére is meglepően nagy arányban bíznak az MI-ben, vagy legalábbis nem szkeptikusak vele kapcsolatban, ami újabb érv lenne az említett keretek minél gyorsabb felépítése mellett.
Digitalizáció a mindennapokban: hogyan lesz a stratégiai célból napi működés?
A digitális transzformáció sok vállalatnál már nem cél, hanem elvárás – mégis gyakran megreked a tervezőasztalon. A vezetői szinten megfogalmazott ambiciózus tervek nehezen fordulnak át napi működéssé, ha hiányzik a technológiai rugalmasság vagy a belső kohézió.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak