A generatív mesterséges intelligencia megbízhatatlanságára kevés jobb példa van azoknál az eseteknél, amikor az MI nem létező esetekre hivatkozott a bírósághoz benyújtott beadványokban, vagyis nem egyszerűen pontatlan kimeneteket adott, hanem valótlan információt gyártott a hozzá tartozó, ugyancsak kitalált forrásokkal együtt. Ennek fényében egyre kevésbé tűnik jó ötletnek a technológia ilyen irányú bevonása a jogi munkafolyamatokba, ahol az MI-hallucináció és a rossz minőségű adatforrások komoly károkat okozhatnak – pláne nem olyan arányban, amit a jogászok feladatainak automatizálásáról szóló értekezésekben emlegetnek.
Gépi tanulással foglalkozó kutatók és jogi szakértők ennek ellenére bejelentették a nyílt forrású SauLM-7B nevű nagy nyelvi modellt (LLM-et), ami állításuk szerint kifejezetten a jogi munkára és alkalmazásokra összpontosít. Az Equall.ai és európai egyetemek bevonásával fejlesztett modell készítűi a The Register kérdésére kifejtették, hogy meggyőződésünk szerint a jogi területre specializálódott rendszerek sokkal jobban teljesítményre képsek, mint a ChatGPT és más generalista rendszerek: nagyobb pontossággal működnek, és jobban támogatják a jogászokat is abban, hogy a szakmai döntésekre és az ügyfeleiknek nyújtott tanácsadásra koncentrálhassanak.
A specializált MI a jó MI
A Saul készítői is osztjék azt az optimizmust, hogy az LLM-ek és tágabb értelemben az MI-rendszerek transzformatív hatással lesznek a jogi gyakorlatra, amely nem csak magában foglalja, de meg is haladja a marginális termelékenységi területeket a kutatásban, vagy a dokumentumok áttekintésében, elemzésében és összegzésében. Bár elismerik, hogy az LLM-ek definíció szerint valószínűségi modellek maradnak, a hallucinációt pedig "a disztribúción kívüli működés" tünetének tartják. Más szóval, ha az MI-nek a képzése során felhasznált adatokoz hasonló információból kell létrehoznia a szövegeket, akkor kevesebbet hazudozik, mint az ismeretlen témákban.
A fejlesztők arra is figyelmeztetnek, hogy ha az MI-vel "mindent meg akarunk tenni, amit egy ember megtehet, akkor ki is kell vele próbáltatni mindent, amit egy ember megtehet". Ezt pedig vesztes stratégiának tartják, különösen, hogy elveszi a hangsúlyt a biztonságos a robusztus rendszerek építéséről az orvosi vagy jogi környezetekben is. Szerintük az MI-modelleket semmiképpen sem szabad legális adatbázisként kezelni, és a kimenetek többszörös ellenőrzését javasolják – más kérdés, hogy a gazdaságos felhasználás így a formális logika alapján csak az ellenőrzés fellazításával és a kimenetek minőségének lerontásával lenne elérhető, hiszen senki sem akar több embert megfizetni ugyanazért a munkáért, mint amit MI nélkül egyetlen szakember is önállóan elvégezhetne.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak