Ahogy az utóbbi időben számos példát lehetett rá találni, a Google keresőszolgáltatásának mesterséges intelligenciával generált áttekintései (AI overview) rendszeresen dobálnak helytelen és akár veszélyes kimeneteket. A Futurism ezzel kapcsolatban a Columbia Tow Center for Digital Journalism kutatásátidézi, amelynek értelmében az MI-alapú keresések az esetek több mint 60 százalékában eredményeznek valamilyen szinten téves válaszokat, és az egyes modellek teljesítménye ugyan nagyban eltérhet a többitől, 37 százalékos hibaaránynál egyik sem volt képes jobb eredményre.
Ilyen körülmények között mi sem természetesebb, mint hogy a Google az egészségügyi tanácsadást is felveszi az AI overview profiljába: a vállalat hivatalos blogján közölt győzelmi jelentés szerint a Gemini modellek "legújabb, egészségközpontú fejlesztései" és a Google "kategóriájukban legjobb minősítési és rangsorolási rendszerei" már lehetővé teszik "több ezer egészségügyi téma lefedését". Ez jön még a "What People Suggest" nevű új funkció is, amelyen keresztül az MI "az online beszélgetések különböző nézőpontjait" kivonatolja, bemutatva, hogy mit mondanak valamiről az emberek.
A Goggle példájában ha egy ízületi gyulladással küzdő felhasználó tudni szeretné, hogy mit tesznek mások, akik hozzá hasonló állapotban vannak, akkor az első körben az Egyesült Államokban elérhető eszközzel gyorsan feltárhatja a kapcsolódó véleményeket, és a felsorolt linkeken keresztül többet is megtudhat a témáról. A vállalat szerint az emberek gyakran értékelik mások véleményét, akik hasonló egészségügyi kérdésekben utaznak, a funkció pedig "szigorú tesztelésen és klinikai értékelésen ment keresztül", hogy a hiteles egészségügyi tartalom mellett jelenhessen meg a keresőben.
Mindenki megnyugodhat, tanulni szeretnének a hibáikból
A Futurism friss beszámolója emlékeztet rá, hogy a Google-nél korábban több száz humán alkalmazott dolgozott ezen a területen, a társaság azonban 2021-ben felszámolta egészségügyi részlegét, elbocsátva vagy máshova irányítva az alkalmazottakat. átszervezte az ott dolgozókat. A Bloombergnek ezt követően nyilatkozó szakértők szerint kérdéses, hogy az MI képes lehet-e jó minőségű egészségügyi információval szolgálni, miközben felhívják rá a figyelmet, hogy olyan speciális területről van szó, amelyben a diszrupciós kísérletek egyike sem volt még sikeres a big tech szolgáltatók részéről.
A lap a Google-nél is érdeklődött, hogy pontosan miként ellenőrizné a mesterséges intelligencia egészségügyi tanácsainak pontos és biztonságos működését, miután korábban már elismerték, hogy bizonyos kérdésekben egyszerűen "nem áll rendelkezésre túl sok jó minőségű webes tartalom". Ezzel kapcsolatban a silány válaszok elleni védőkorlátokra és szabályokra hivatkoztak, ami a gyakorlatban nehezen értelmezhető dolog, és arról beszéltek, hogy az esetleges problémákat felhasználják "a fejlődésre és az irányelveikhez illeszkedő lépések megtételére". Mit mondhatnánk erre, remekül hangzik!
Az ötlettől az értékteremtésig – egy jól működő adattudományi szervezet alapjai
Miért bukik el annyi adattudományi kezdeményezés már az indulás után? A válasz gyakran nem az algoritmusok összetettségében, hanem az adatok minőségében és kezelésében keresendő. Stabil adatforrások, következetes feature-kezelés és egy jól felépített Feature Store nélkül a gépi tanulás ritkán jut el a valódi üzleti értékteremtésig.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak