Az Utah állambeli Heber City rendőrsége a hónap elején kezdte két mesterségesintelligencia-alapú jelentéskészítő rendszer tesztelését, amelyek az arcfelismerő vagy előrejelző technológiákhoz hasonlóan máris szállították az MI-re jellemző bakiparádét. Az egyik esetben a szervezet kénytelen volt megmagyarázni, miként kerülhetett bele az egyik automatikusan generált jelentésbe, hogy egy rendőrtiszt valahogy békává változott. A helyi Fox 13 csatorna híroldala szerint a Draft One nevű szoftver testkamera-felvételek alapján készít leiratokat, hogy tehermentesítse a rendőröket a papírmunka csökkentésével, de ebben az esetben nem sikerült megkülönböztetnie az intézkedés lényegi részétől egy háttérben futó Disney-rajzfilmet, A hercegnő és a békát.
Bár az automatizálás a riportban megszólaló rendőr szerint valóban heti 6-8 óra munkaidőt szabadíthat fel, a fenti eset kapcsán is nyilvánvalóvá vált, hogy új feladatként megjelenik a mesterséges intelligenciával generált jelentések ellenőrzése, ami látszólag fából vaskarika helyzetet teremt a hatékonyság növelését célzó új megoldások használatával. Különösen, ha figyelembe vesszük, hogy a hibák egy része nyilván észrevétlenül repül el a radar alatt. Az Electronic Frontier Foundation ezzel kapcsolatban arra figyelmeztet, hogy gyakran lehetetlen megmondani, a jelentések mely részeit írta az MI és melyeket írták valódi rendőrök, ez pedig gyengíti az utóbbiak elszámoltathatóságát és erősíti a tagadhatóságot, vagyis a felelősség későbbi elhárítását.
A közbizalmat nehéz lesz automatizálni
Az EFF a Draft One kapcsán külön kiemeli, hogy az a jelek szerint "szándékosan kielkerüli azokat az ellenőrzéseket", amelyek a nyilvánosság részére bármilyen átláthatóságot biztosítanának, és a kommentárok azt is kiemelik, hogy a szoftvert pont a Taser elektromos fegyvereket is szállító Axon próbálja rásózni a rendőrségre. A Draft One egyébként az OpenAI nagy nyelvi modelljeivel gyárt komplett jelentéseket a testkamerák felvételeiből, a szakértők azonban arra figyelmeztetnek, hogy az MI hallucinációi ezeket a dokumentumokat is ugyanúgy beszennyezik, mint más felhasználások kimeneteit – nem beszélve arról, hogy az automatizálás más területekhez hasonlóan a rendőröket is arra ösztönözheti, hogy lazábban vegyék ezeket a kötelezettségeket.
A Futurism riportja azokat a rendszeres figyelmeztetéseket is idézi, amelyek szerint kimutatható, hogy az ilyen MI-alapú szoftverek tovább erősítik a faji vagy nemi előítéleteket: az arcfelismerő rendszerek terjedése kapcsán például régóta ismertek azok a kockázatok, amelyek messze túlmutatnak az egyes személyek azonosításának lehetőségén. Emellett igaz, hogy az emberek is gyakran hibáznak vagy cselekszenek elfogultan, de az MI esetében ez mindig váratlanul és nehezen magyarázható módon jelentkezik. Nehéz elképzelni, hogy egy ember ugyanígy képes lenne leírni a jelentésében, hogy valaki békává változott, de azt könnyű belátni, hogy az MI iránti bizalmatlanság milyen hatással lehet a rendőrségi jelentésektől függő jogrendszerre.
Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben
A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak