Akármilyen látványos dolgokra képesek is a legújabb MI-modellek, a buta hibákra való hajlamuk változatlannak tűnik, és a hallucinációnak nevezett süketelés is egyre jellemzőbb rájuk. Ez akkor sem feltétlenül praktikus, ha valaki az iskolai dolgozatait szeretné megíratni a ChatGPT-vel. A tét azonban hirtelen nagyon magasra nő, ha az egészségügyről és az orvosi tancsadásról van szó, ami a technooptimista nyilatkozatok szerint rövid időn belül a mesterséges intelligencia egyik legfontosabb és legsikeresebb felhasználási területe lesz.
A The New York Times nemrég közölt riportjában ír a MyChart nevű kommunikációs platformról, ami naponta több százezer üzenetet közvetít az orvosok és a betegek között. A rendszert a közelmúltban egy újabb, az OpenAI GPT-4-es modelljére épülő funkcióval is kiegészítették, amely képes automatikus válaszokat gyártani a betegek kérdéseire, méghozzá közvetlenül az orvosok és asszisztenseik nevében. Annak ellenére pedig, hogy az MI megbízhatósága minimum véleményes, a lap szerint az USA-ban már 15 ezren használják közülük az új funkciót.
Ebben is tapasztalható némi felfordulás
A cikkben érdekes példák szerepelnek arra, hogy milyen, amikor a mesterséges intelligencia ezen a területen téved vagy hazudozik: az egyik ilyen esetben az MI az oltási nyilvántartáshoz való hozzáférés nélkül is megnyugtatta a beteget, hogy be van oltva a hepatitis B-vírus ellen. A problémát tovább súlyosbítja, hogy a MyChart eszközét semmi sem kötelezi rá, hogy világosan jelezze, ha az orvosi tanácsok egy MI-rendszertől származnak – sőt még az orvos hangját is szimulálhatja, hogy időt takarítson meg a betegekkel való beszélgetés során.
Bár szövetségi szabályok egyelőre tényleg nem léteznek arra vonatkozóan, hogy tisztázni kell az MI-vel gyártott üzenetek forrását, az is igaz, hogy a program egyelőre csak üzenettervezeteket gyárt, amelyeket egészségügyi szakembereknek is ellenőrizniük kell. Nem nehéz azonban elképzelni, hogy a géppel generált hibák egy része óhatatlanul is átcsúszik majd a szűrőn, az ellenőrzés szigorításával viszont hamar el lehet jutni arra a pontra, amikor teljesen értelmetlenné válik a mesterséges intelligencia használata.
A Futurism oldálán egy júliusi tanulmányt idéznek, amelynek szerzői a MyChart eszközével készített üzenetvázlatokat vizsgáltak. 116 ilyen anyagban összesen 7 alkalommal mutatták ki az MI-hallucinációt, ami ezen a felhasználási területen lehetetlenül magas aránynak számít, egy másik tanulmányban pedig megállapították, hogy a GPT-4 ismétlődő hibákat követ el a betegek üzeneteire írt válaszaiban. Ilyen összefüggésben még érdekesebb, ha a páciensek nem kapnak megfelelő tájékoztatást, ami rövid úton elintézheti a technológia iránti, nem túl acélos bizalmat is.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak