A generatív mesterséges intelligencia megbízhatatlanságára kevés jobb példa van azoknál az eseteknél, amikor az MI nem létező esetekre hivatkozott a bírósághoz benyújtott beadványokban, vagyis nem egyszerűen pontatlan kimeneteket adott, hanem valótlan információt gyártott a hozzá tartozó, ugyancsak kitalált forrásokkal együtt. Ennek fényében egyre kevésbé tűnik jó ötletnek a technológia ilyen irányú bevonása a jogi munkafolyamatokba, ahol az MI-hallucináció és a rossz minőségű adatforrások komoly károkat okozhatnak – pláne nem olyan arányban, amit a jogászok feladatainak automatizálásáról szóló értekezésekben emlegetnek.
Gépi tanulással foglalkozó kutatók és jogi szakértők ennek ellenére bejelentették a nyílt forrású SauLM-7B nevű nagy nyelvi modellt (LLM-et), ami állításuk szerint kifejezetten a jogi munkára és alkalmazásokra összpontosít. Az Equall.ai és európai egyetemek bevonásával fejlesztett modell készítűi a The Register kérdésére kifejtették, hogy meggyőződésünk szerint a jogi területre specializálódott rendszerek sokkal jobban teljesítményre képsek, mint a ChatGPT és más generalista rendszerek: nagyobb pontossággal működnek, és jobban támogatják a jogászokat is abban, hogy a szakmai döntésekre és az ügyfeleiknek nyújtott tanácsadásra koncentrálhassanak.
A specializált MI a jó MI
A Saul készítői is osztjék azt az optimizmust, hogy az LLM-ek és tágabb értelemben az MI-rendszerek transzformatív hatással lesznek a jogi gyakorlatra, amely nem csak magában foglalja, de meg is haladja a marginális termelékenységi területeket a kutatásban, vagy a dokumentumok áttekintésében, elemzésében és összegzésében. Bár elismerik, hogy az LLM-ek definíció szerint valószínűségi modellek maradnak, a hallucinációt pedig "a disztribúción kívüli működés" tünetének tartják. Más szóval, ha az MI-nek a képzése során felhasznált adatokoz hasonló információból kell létrehoznia a szövegeket, akkor kevesebbet hazudozik, mint az ismeretlen témákban.
A fejlesztők arra is figyelmeztetnek, hogy ha az MI-vel "mindent meg akarunk tenni, amit egy ember megtehet, akkor ki is kell vele próbáltatni mindent, amit egy ember megtehet". Ezt pedig vesztes stratégiának tartják, különösen, hogy elveszi a hangsúlyt a biztonságos a robusztus rendszerek építéséről az orvosi vagy jogi környezetekben is. Szerintük az MI-modelleket semmiképpen sem szabad legális adatbázisként kezelni, és a kimenetek többszörös ellenőrzését javasolják – más kérdés, hogy a gazdaságos felhasználás így a formális logika alapján csak az ellenőrzés fellazításával és a kimenetek minőségének lerontásával lenne elérhető, hiszen senki sem akar több embert megfizetni ugyanazért a munkáért, mint amit MI nélkül egyetlen szakember is önállóan elvégezhetne.
Az ötlettől az értékteremtésig – egy jól működő adattudományi szervezet alapjai
Miért bukik el annyi adattudományi kezdeményezés már az indulás után? A válasz gyakran nem az algoritmusok összetettségében, hanem az adatok minőségében és kezelésében keresendő. Stabil adatforrások, következetes feature-kezelés és egy jól felépített Feature Store nélkül a gépi tanulás ritkán jut el a valódi üzleti értékteremtésig.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak