Egy újabb kutatás sürget átfogó szabályozást a gépi tanuló rendszerek egészségügyi környezetben való alkalmazására, miközben arra is rámutat, hogy hiba lenne az orvosoktól várni a megbízhatatlan MI-asszisztensek korlátozását.

Mivel úgy tűnik, hogy az MI-modellekre jellemző hallucináció – a teljesen légből kapott dolgok magabiztos állítása – nem akadályozza meg a technológia orvosi felhasználását, egy február végén közölt kutatás annak a módját keresi, hogy az egészségügyi szakemberek hogyan konzultálhatnának minél kisebb rizikó mellett a megbízhatatlan szoftverasszisztensekkel. A The Register beszámolója alapján két tucat elismert technológiai és egészségügyi szakértő vállalkozott a vezető modellek fals kimeneteinek katalogizálására és elemzésére, hogy annak alapján hatékonyabb szabályokat alkothassanak az MI egészségügyi célú alkalmazására.

A szerzők (akik nem minden esetben teljesen függetlenek a nagy szállítóktól) ugyanis elismerik az új eszközökben rejlő lehetőségeket a klinikai döntések és az orvosi kutatás támogatásától egészen az egészségügyi ellátás minőségének és biztonságának javításáig, és szigorú korlátozások helyett inkább speciális taxonómiát alkotnának a speciális felhasználásban tapasztalható hibákról. Erre egyrészt azért lenne szükség, mert a pontatlanságok azonnali következményekkel vannak a betegellátásra, másrészt az ilyen típusú hallucinációk szakkifejezésekkel és látszólag koherens logikával nehezítik a szakértői közreműködés nélküli felismerését.

A lélegzetét senki se tartsa vissza

A kutatásban általános célú nagy nyelvi modellek (LLM-ek) képességeit értékelték célzott klinikai feladatokon, és egyes modellek ugyan jobban teljesítettek másoknál, összességében mindegyik program borzalmas hallucinációs rátával dolgozott. A szerzők szerint kiderült ugyan, hogy a jelenlegi LLM architektúrák viszonylag erős mintázatfelismerési és diagnosztikai következtetési képességekkel rendelkeznek az orvosi esetleírások feldolgozásakor, de alapvető feladatokkal (mondjuk a részletes tényszerű és időbeli információk pontos kinyerésével és szintetizálásával) már komoly problémáik vannak.

Ennek alapján a kutatók sürgetik a szabályozást és a hibákért való jogi felelősség megállapítását is, ami egyelőre minimum szürke zónának számít. Szerintük etikai irányelvek és szilárd keretek meghatározására van szükség a betegek biztonsága és az elszámoltathatóság biztosítására, bár arra a cikkben is felhívják rá a figyelmet, hogy a Trump-adminisztráció éppen a Biden-korszak kezdetleges MI-biztonsági szabályainak szétversével foglalkozik, vagyis nem valószínű, hogy azon a szinten válaszolnának a tudósok felhívására. A kutatásból emellett az is kiderül, hogy a gyakorló orvosok saját tapasztalataik ellenére is meglepően nagy arányban bíznak az MI-ben, vagy legalábbis nem szkeptikusak vele kapcsolatban, ami újabb érv lenne az említett keretek minél gyorsabb felépítése mellett.

Részletek a The Register riportjában »

Piaci hírek

Lebuktatták a Grammarly MI-funkcióját

A The Verge kiderítette, hogy a szövegírást támogató szolgáltatás egy új funkciója valós szakértők nevében terjeszt kétes eredetű információkat – természetesen az érintettek engedélye nélkül.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.