Mára teljesen világossá vált, hogy a munkafeladatokban nem jó ötlet kritikátlan módon a ChatGPT-re hagyatkozni, miután az MI-chatbotok kimenetei nem csak pontatlanok, de időnként semmi közük sincs a valósághoz. Ebből különösen látványos arcra esések származtak a mesterséges intelligencia jogi felhasználásában is: tavaly májusban például egy olyan eset bukkant fel a hírekben, amikor egy New York-i bíróságon a felperest képviselő ügyvédek komoly büntetést kaptak, miután hamis idézetekkel és belső hivatkozásokkal megtámogatott, a valóságban nem létező bírósági határozatokra hivatkoztak a beadványukban.
Mint kiderült, az adatok ellenőrzését annyival intézték el, hogy magát a ChatGPT-t kérdezték meg az információ eredetéről, a program pedig simán odahazudta nekik a kitalált forrásokat. Időközben tucatnyi másik ügyben is kiderült, hogy a mesterséges intelligencia által generált, hamis esetjogi hivatkozások megbuktak a bíróságok előtt, ami nem csak az MI megbízhatatlanságáról árulkodik, hanem a problémás felhasználási gyakorlatokról is – vagyis arról, hogy a technológiára hatékonyságnövelő eszközként érdemes tekinteni, nem pedig valamilyen csodaszerként, ami gombnyomásra elvégzi helyettünk a saját munkánkat.
Az automatizálás nem így működik
A beszámolók szerint az Egyesült Államokban már számos bíróság javasolt vagy hozott szabályokat az MI-alkalmazások használatáról, bár az ügyvédeknek az MI nélkül is tisztában kell lenniük a pontosságra vonatkozó követelményekkel. A hasonló fiaskók azonban tovább szaporodnak: legújabban egy másik New York-i jogászcég ügyvédei akadtak fenn egy szövetségi kerületi bírón, aki azt kifogásolta, hogy azok "a ChatGPT-4 MI-eszköz visszajelzéseire" hivatkozva állapították meg a díjazásukat. Az igényelt összegnek végül a felét ítélték oda nekik, teljes félreértésnek nevezve a chatbot bevonását a számításokba.
A cég képviselője a The Register kérdésére elmondta, hogy a mesterséges intelligencia használata ebben az esetben nem irányult bírósági dokumentumok előállítására, vagyis semmi köze nem volt a jogi folyamat befolyásolásához. De a bírónak sem önmagában a ChatGPT használatával volt problémája: azt is kifogásolta, hogy nem mutatták be a ChatGPT válaszaihoz tartozó bemeneteket, és azt sem tisztázák, hogy a művelet során támaszkodtak-e szintetikus adatokra. Érdekesség, hogy a Goldman Sachs már tavaly márciusban arról értekezett, hogy a jogászok feladatainak 44 százalékát automatizálni lehetne az Egyesült Államokban, ami egyre kevésbé tűnik megnyugtató lehetőségnek.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak