A mesterséges intelligenciával és a gépi tanuló algoritmusokkal kapcsolatban egy érdekes, bár keveset emlegetett kérdés az adatok törlésének lehetősége. Ez praktikusan azt jelenti, hogy nem könnyű eltávolítani a rendszerek betanításához használt adatkészletek egyik-másik jól meghatározott elemét, és erre sokszor csak az jelent megoldást, hogy a tanítást újra elkezdik az alapoktól, ezúttal már a frissített adatkészleteket alkalmazva. A probléma olyan esetekben különösen érdekes, mint például az európai GDPR gyakorlati alkalmazása, amelynek értelmében a magánszemélyek töröltethetik személyes adataikat a céges adatbázisokból.
Ez a gépi tanuló rendszerek esetében olyannyira nem egyszerű, hogy egy 2017-ben kiadott, Humans forget, machines remember (az emberek felejtenek, a gépek emlékeznek) című egyetemi kutatási anyagban egyenesen lehetetlennek tartották. Az ilyen modellek komplexitása egy fekete dobozhoz teszi hasonlatossá azokat, amelyben nem teljesen világos az egyes adatpontok vagy -csoportok tényleges szerepe. A rendszerek ismételt betanítása viszont sok időbe és sok pénzbe kerül, ami nyilvánvalóan nem áll rendelkezésre minden egyes felmerülő módosításhoz.
Az első lépést mindenesetre megtették
Erre keres választ egy másik, a Stanford University PhD-hallgatója által vezetett csoport, és ha kielégítő megoldást nem is, bizonyos eredményeket már elértek a probléma vizsgálata során. A múlt héten közzétett Making AI Forget You (rávenni az MI-t, hogy elfelejtsen) című publikáció bemutatja, hogyan sikerült "igazolhatóan törléshatékony algoritmusokat" létrehozni k-közép klaszterezést (k-means clustering) alkalmazó modellekkel, és ez hogyan volt alkalmazható összesen hat különböző adatkészleten.
A módszer lényege a törlés hatásainak megbecsülése a már betanított modelleken, ami bizonyos esetekben a rendszerek hatékonyságának csökkenésével jár együtt. Ez egyrészt annak vizsgálatát jelenti, hogy egy adatpont eltávolítása jár-e bármiféle hatással a teljes gépi tanuló modellre nézve – bizonyos beállítások mellett nem jár, így ez az ellenőrzés nagyon eredményesen elvégezhető. Másrészt megvizsgálják azt is, hogy az adatpont törlése hogyan befolyásolja a rendszer lokális komponenseit, ez utóbbi függvényében pedig lokális frissítések hajthatók végre rajta.
A közzétett anyag szerint a k-közép klaszterezésre alapuló modellekkel, a megfelelő körülmények között, a módszer működőképes (az eljárás sokkal részletesebb és szabatosabb leírása itt olvasható), mivel ezekben az esetekben az adatok sokkal egyszerűbben szeparálhatók. A modern, determinisztikus mélytanuló modellekre viszont továbbra is igaz, hogy hihetetlenül nehéz feladat egyes adatokat törölni belőlük – bár a kutatók hangsúlyozzák, hogy szerintük ez sem lehetetlen dolog. Bár elismerik, hogy jelenleg nem rendelkeznek a megfelelő eszközökkel, reményeik szerint akár hónapokon belül előállhatnak majd az első megoldásokkal.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak