Akármilyen látványos dolgokra képesek is a legújabb MI-modellek, a buta hibákra való hajlamuk változatlannak tűnik, és a hallucinációnak nevezett süketelés is egyre jellemzőbb rájuk. Ez akkor sem feltétlenül praktikus, ha valaki az iskolai dolgozatait szeretné megíratni a ChatGPT-vel. A tét azonban hirtelen nagyon magasra nő, ha az egészségügyről és az orvosi tancsadásról van szó, ami a technooptimista nyilatkozatok szerint rövid időn belül a mesterséges intelligencia egyik legfontosabb és legsikeresebb felhasználási területe lesz.
A The New York Times nemrég közölt riportjában ír a MyChart nevű kommunikációs platformról, ami naponta több százezer üzenetet közvetít az orvosok és a betegek között. A rendszert a közelmúltban egy újabb, az OpenAI GPT-4-es modelljére épülő funkcióval is kiegészítették, amely képes automatikus válaszokat gyártani a betegek kérdéseire, méghozzá közvetlenül az orvosok és asszisztenseik nevében. Annak ellenére pedig, hogy az MI megbízhatósága minimum véleményes, a lap szerint az USA-ban már 15 ezren használják közülük az új funkciót.
Ebben is tapasztalható némi felfordulás
A cikkben érdekes példák szerepelnek arra, hogy milyen, amikor a mesterséges intelligencia ezen a területen téved vagy hazudozik: az egyik ilyen esetben az MI az oltási nyilvántartáshoz való hozzáférés nélkül is megnyugtatta a beteget, hogy be van oltva a hepatitis B-vírus ellen. A problémát tovább súlyosbítja, hogy a MyChart eszközét semmi sem kötelezi rá, hogy világosan jelezze, ha az orvosi tanácsok egy MI-rendszertől származnak – sőt még az orvos hangját is szimulálhatja, hogy időt takarítson meg a betegekkel való beszélgetés során.
Bár szövetségi szabályok egyelőre tényleg nem léteznek arra vonatkozóan, hogy tisztázni kell az MI-vel gyártott üzenetek forrását, az is igaz, hogy a program egyelőre csak üzenettervezeteket gyárt, amelyeket egészségügyi szakembereknek is ellenőrizniük kell. Nem nehéz azonban elképzelni, hogy a géppel generált hibák egy része óhatatlanul is átcsúszik majd a szűrőn, az ellenőrzés szigorításával viszont hamar el lehet jutni arra a pontra, amikor teljesen értelmetlenné válik a mesterséges intelligencia használata.
A Futurism oldálán egy júliusi tanulmányt idéznek, amelynek szerzői a MyChart eszközével készített üzenetvázlatokat vizsgáltak. 116 ilyen anyagban összesen 7 alkalommal mutatták ki az MI-hallucinációt, ami ezen a felhasználási területen lehetetlenül magas aránynak számít, egy másik tanulmányban pedig megállapították, hogy a GPT-4 ismétlődő hibákat követ el a betegek üzeneteire írt válaszaiban. Ilyen összefüggésben még érdekesebb, ha a páciensek nem kapnak megfelelő tájékoztatást, ami rövid úton elintézheti a technológia iránti, nem túl acélos bizalmat is.
Exkluzív szakmai nap a felhők fölött: KYOCERA Roadshow a MOL Toronyban
A jövő irodája már nem a jövő – hanem a jelen. A digitális transzformáció új korszakába lépünk, és ebben a KYOCERA nemcsak követi, hanem formálja is az irányt. Most itt a lehetőség, hogy első kézből ismerje meg a legújabb hardveres és szoftveres fejlesztéseket, amelyekkel a KYOCERA új szintre emeli a dokumentumkezelést és az üzleti hatékonyságot.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak