Öt éven belül forradalmasítanák a rákos megbetegedések diagnosztizálását, tíz éven belül pedig "megfejtenék" magát a betegséget is. A Bloomberg beszámolója szerint ezzel az ambíciózus céllal működik a Microsoft biológiai számítástechnikai (biological computing) egysége, azon belül pedig több párhuzamos projekt, amelyek a rákot a számítógépes vírusok mintájára próbálják értelmezni, egyben mini számítógépekként modellezve az emberi test sejtjeit is, amelyek programozhatók és újraprogramozhatók, ha működésük valamilyen okból megváltozik.
Mindez a közeljövőre vetítve azt jelenti, hogy a kutatók a mesterséges intelligencia, ezen belül a gépi tanulás (machine learning) technológiai alapjain próbálják meg feldolgozni a rendelkezésre álló szakirodalmat és kutatási anyagokat, hogy képet kapjanak a betegségről és a különböző szerek hatásairól. A matematika és a biológia hagyományosan elkülönülő területei csak az utóbbi időben kezdtek közeledni egymáshoz, de a technológiai háttér ma már mindenképpen lehetővé teszi, hogy a biológiai feladványokat matematikai problémaként vizsgálják.
Ez az AI-kutatások egyik fontos területe
Hasonló egészségügyi vonatkozású fejlesztések már a teljes iparágban zajlanak. Az IBM Watson for Oncology rendszere például a leletek értelmezésében és a személyre szabott kezelésekben segíti az orvosokat. A Google DeepMind részlegének is van egészségügyi csoportja, amely egyebek mellett a brit kormányzattal közösen vizsgálja a degeneratív szembetegségek korai diagnózisának lehetőségeit a számítástechnikai eszközök bevonásával.
A startup szcéna egyik legtöbbet emlegetett szereplője a kaliforniai Deep 6 Analytic, ahol a strukturálatlan egészségügyi adatok bányászatával próbálják megtalálni a megfelelő alanyokat a klinikai gyógyszerkísérletekhez. A Google befektetői hátterével működő Flatiron Health technológiája az említett kísérleteket azzal tenné hatékonyabbá, hogy kompilálja a kutatási anyagokat és a betegek leleteit és kórtörténetét. Itt sem kis adatmennyiségről van szó.
Vannak adatok, de nehéz velük mit kezdeni
Jelenleg szinte percenként napvilágot lát valamilyen új, a témát érintő publikáció, amit egyrészt lehetetlen élő emberekkel mind elolvastatni, másrészt lehetetlen a meglévő anyagokat emberi erőforrásra építve rendszerezni, és felfedezni az adattömegben a megfelelő mintákat. A számítógépek ugyanakkor képesek erre, ha a megfelelő algoritmusok szerint dolgoznak; nem csak átrágják magukat az összes elérhető forráson, de azok alapján képesek egy konkrét esetre vonatkozó következtetéseket is levonni.
Az Amerikai Gyógyszerkutatók és Gyógyszergyártók Szövetségének 2015 végi adatai szerint csak a klinikai kísérletek fázisában több mint 800 gyógyszer és vakcina volt az országban. A génszekventálás csökkenő költségei és növekvő sebessége, a megfelelő genetikai mutációk azonosításának képessége olyan adatmennyiséget termel, amelynek esetében – a big data analitika egyik alapvető meghatározása szerint – az adattömeg mennyisége már önmagában is kihívást jelent az információ elemzésében.
A gépi tanulással kapcsolatos mesterségesintelligencia-kutatások itt abban nyújthatnak segítséget, hogy a rendszer képessé válik a szabályszerűségek felismerésére és meghatározására a kutatási anyagok, klinikai vizsgálatok, radiológiai leletek és más, az elektronikus egészségügyi nyilvántartásokban szereplő információk vizsgálatával. Az egyik szűk keresztmetszet ebben az esetben ugyanis nem az adatok hiánya, hanem az adattömeg értelmezésének képessége, például az adott esetben alkalmazható gyógyszerkombinációk és azok lehetséges hatásai tekintetében.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak