Mára teljesen világossá vált, hogy a munkafeladatokban nem jó ötlet kritikátlan módon a ChatGPT-re hagyatkozni, miután az MI-chatbotok kimenetei nem csak pontatlanok, de időnként semmi közük sincs a valósághoz. Ebből különösen látványos arcra esések származtak a mesterséges intelligencia jogi felhasználásában is: tavaly májusban például egy olyan eset bukkant fel a hírekben, amikor egy New York-i bíróságon a felperest képviselő ügyvédek komoly büntetést kaptak, miután hamis idézetekkel és belső hivatkozásokkal megtámogatott, a valóságban nem létező bírósági határozatokra hivatkoztak a beadványukban.
Mint kiderült, az adatok ellenőrzését annyival intézték el, hogy magát a ChatGPT-t kérdezték meg az információ eredetéről, a program pedig simán odahazudta nekik a kitalált forrásokat. Időközben tucatnyi másik ügyben is kiderült, hogy a mesterséges intelligencia által generált, hamis esetjogi hivatkozások megbuktak a bíróságok előtt, ami nem csak az MI megbízhatatlanságáról árulkodik, hanem a problémás felhasználási gyakorlatokról is – vagyis arról, hogy a technológiára hatékonyságnövelő eszközként érdemes tekinteni, nem pedig valamilyen csodaszerként, ami gombnyomásra elvégzi helyettünk a saját munkánkat.
Az automatizálás nem így működik
A beszámolók szerint az Egyesült Államokban már számos bíróság javasolt vagy hozott szabályokat az MI-alkalmazások használatáról, bár az ügyvédeknek az MI nélkül is tisztában kell lenniük a pontosságra vonatkozó követelményekkel. A hasonló fiaskók azonban tovább szaporodnak: legújabban egy másik New York-i jogászcég ügyvédei akadtak fenn egy szövetségi kerületi bírón, aki azt kifogásolta, hogy azok "a ChatGPT-4 MI-eszköz visszajelzéseire" hivatkozva állapították meg a díjazásukat. Az igényelt összegnek végül a felét ítélték oda nekik, teljes félreértésnek nevezve a chatbot bevonását a számításokba.
A cég képviselője a The Register kérdésére elmondta, hogy a mesterséges intelligencia használata ebben az esetben nem irányult bírósági dokumentumok előállítására, vagyis semmi köze nem volt a jogi folyamat befolyásolásához. De a bírónak sem önmagában a ChatGPT használatával volt problémája: azt is kifogásolta, hogy nem mutatták be a ChatGPT válaszaihoz tartozó bemeneteket, és azt sem tisztázák, hogy a művelet során támaszkodtak-e szintetikus adatokra. Érdekesség, hogy a Goldman Sachs már tavaly márciusban arról értekezett, hogy a jogászok feladatainak 44 százalékát automatizálni lehetne az Egyesült Államokban, ami egyre kevésbé tűnik megnyugtató lehetőségnek.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak