Az egészségügyben már a ChatGPT debütálása előtt is aktívan próbálkoztak a chatbotok bevetésével: például a pandémia szülte korlátok és korlátozások áthidalására (az már más kérdés, hogy ezek a korai próbálkozások nem voltak túl sikeresek). A generatív MI körül támadt hírverést látva pedig nem is volt kérdés, hogy újabb és újabb ötletek születnek arra, hogy miként lehetne az emberiség javára és egészségének megőrzésére fordítani az egyre fejlettebb képességekkel rendelkező algoritmusokat.
A New York Times nemrégiben egy ilyen kísérletről számolt be, amely a bostoni Beth Israel Deaconess oktatókórházban zajlik. Az OpenAI legfrissebb szövegalkotó modelljét, a GPT-4-et itt arra használják, hogy az orvostanhallgatókat és a már munkába álló rezidenseket megtanítsák "orvosként gondolkodni". A program egyik szervezője szerint maguk az orvosok "borzalmasak abban, hogy más orvosoknak megtanítsák, hogyan gondolkodunk". Ezt az alapvető problémát igyekeznek a chatbot bevetésével... orvosolni.
A generatív MI a remények szerint képes lehet imitálni, kiváltani a széles körben elterjedt, járdaszéli konzultációként emlegetett gyakorlatot. Utóbbi nagyjából annyit jelent, hogy az orvosok akár csak a kórházi folyosón összefutva megállítják a másik szakterületen jártas kollégát, hogy másodlagos véleményt kérjenek egy-egy nehezebb esethez.
A GPT-4 több, mint egy felturbózott kereső
Egy gyakorlati óra során a medikusok és a rezidensek egy duzzadt térddel bajlódó valódi páciens esetének adatait kapták meg (beteg személyes adatai, pontos tünetek, panaszok stb.), ami alapján csoportokra bontva kellett kitalálniuk, milyen betegség okozza a problémát.
Az egyik csoport a GPT-4-et gyakorlatilag Google-keresőként használta. A chatbot erre közölte a lehetséges diagnózisok listáját, beleértve a traumát is. Amikor azonban a csoport tagjai megkérték, hogy magyarázza meg a válaszát, a bot mindössze azt tudta felhozni, hogy "a trauma a térdsérülések gyakori oka".
Egy másik csoport lehetséges hipotéziseket gondolt ki, és megkérte a GPT-4-et, hogy ellenőrizze őket. A chatbot listája nagyjából egybevágott a csoportéval: fertőzések, beleértve a Lyme-kórt; ízületi gyulladás, beleértve a köszvényt; és itt is felbukkant a trauma.
A kísérletből az oktatók azt a következtetést vonták le, hogy ugyan a chatbot nem követett el baklövést, igazából nem is tudta támogatni a döntéshozatalt. Ennek okát pedig abban látták, hogy a medikusok keresőként fordultak a GPT-4-hez. A helyes megközelítés azonban az, mintha tényleg egy kollégát kérdeznének meg az esetről. Ennek érdekében az algoritmussal kezdéskor tudatosítani kell, hogy egy esetet vizsgáló orvosként nyilvánuljon meg. Ezután fel kell sorolniuk a páciens tüneteit, mielőtt diagnózist kérnének, és a bot érvelésével kapcsolatos kérdésekkel folytatnák. Pontosan úgy, ahogyan egy orvos kollégával tennék.
Az oktatók szerint ez egy módja annak, hogy kihasználjuk a GPT-4 erejét. De az is döntő fontosságú, hogy felismerjük, hogy a chatbotok hibázhatnak és "hallucinálhatnak" - azaz olyan válaszokat adhatnak, amelyeknek nincs valóságalapjuk. Használatukhoz elengedhetetlen tisztában lenni ezekkel a kockázatokkal, illetve fel kell tudni ismerni, hogy mikor hibáznak.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak