A generatív mesterséges intelligencia megbízhatatlanságára kevés jobb példa van azoknál az eseteknél, amikor az MI nem létező esetekre hivatkozott a bírósághoz benyújtott beadványokban, vagyis nem egyszerűen pontatlan kimeneteket adott, hanem valótlan információt gyártott a hozzá tartozó, ugyancsak kitalált forrásokkal együtt. Ennek fényében egyre kevésbé tűnik jó ötletnek a technológia ilyen irányú bevonása a jogi munkafolyamatokba, ahol az MI-hallucináció és a rossz minőségű adatforrások komoly károkat okozhatnak – pláne nem olyan arányban, amit a jogászok feladatainak automatizálásáról szóló értekezésekben emlegetnek.
Gépi tanulással foglalkozó kutatók és jogi szakértők ennek ellenére bejelentették a nyílt forrású SauLM-7B nevű nagy nyelvi modellt (LLM-et), ami állításuk szerint kifejezetten a jogi munkára és alkalmazásokra összpontosít. Az Equall.ai és európai egyetemek bevonásával fejlesztett modell készítűi a The Register kérdésére kifejtették, hogy meggyőződésünk szerint a jogi területre specializálódott rendszerek sokkal jobban teljesítményre képsek, mint a ChatGPT és más generalista rendszerek: nagyobb pontossággal működnek, és jobban támogatják a jogászokat is abban, hogy a szakmai döntésekre és az ügyfeleiknek nyújtott tanácsadásra koncentrálhassanak.
A specializált MI a jó MI
A Saul készítői is osztjék azt az optimizmust, hogy az LLM-ek és tágabb értelemben az MI-rendszerek transzformatív hatással lesznek a jogi gyakorlatra, amely nem csak magában foglalja, de meg is haladja a marginális termelékenységi területeket a kutatásban, vagy a dokumentumok áttekintésében, elemzésében és összegzésében. Bár elismerik, hogy az LLM-ek definíció szerint valószínűségi modellek maradnak, a hallucinációt pedig "a disztribúción kívüli működés" tünetének tartják. Más szóval, ha az MI-nek a képzése során felhasznált adatokoz hasonló információból kell létrehoznia a szövegeket, akkor kevesebbet hazudozik, mint az ismeretlen témákban.
A fejlesztők arra is figyelmeztetnek, hogy ha az MI-vel "mindent meg akarunk tenni, amit egy ember megtehet, akkor ki is kell vele próbáltatni mindent, amit egy ember megtehet". Ezt pedig vesztes stratégiának tartják, különösen, hogy elveszi a hangsúlyt a biztonságos a robusztus rendszerek építéséről az orvosi vagy jogi környezetekben is. Szerintük az MI-modelleket semmiképpen sem szabad legális adatbázisként kezelni, és a kimenetek többszörös ellenőrzését javasolják – más kérdés, hogy a gazdaságos felhasználás így a formális logika alapján csak az ellenőrzés fellazításával és a kimenetek minőségének lerontásával lenne elérhető, hiszen senki sem akar több embert megfizetni ugyanazért a munkáért, mint amit MI nélkül egyetlen szakember is önállóan elvégezhetne.
Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben
A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak