Eddig is voltak ügyek az MI-robot által összehazudott dokumentumokból, nemrég pedig kiderült, hogy a bírók a ChatGPT véleményére sem feltétlenül kíváncsiak.

Mára teljesen világossá vált, hogy a munkafeladatokban nem jó ötlet kritikátlan módon a ChatGPT-re hagyatkozni, miután az MI-chatbotok kimenetei nem csak pontatlanok, de időnként semmi közük sincs a valósághoz. Ebből különösen látványos arcra esések származtak a mesterséges intelligencia jogi felhasználásában is: tavaly májusban például egy olyan eset bukkant fel a hírekben, amikor egy New York-i bíróságon a felperest képviselő ügyvédek komoly büntetést kaptak, miután hamis idézetekkel és belső hivatkozásokkal megtámogatott, a valóságban nem létező bírósági határozatokra hivatkoztak a beadványukban.

Mint kiderült, az adatok ellenőrzését annyival intézték el, hogy magát a ChatGPT-t kérdezték meg az információ eredetéről, a program pedig simán odahazudta nekik a kitalált forrásokat. Időközben tucatnyi másik ügyben is kiderült, hogy a mesterséges intelligencia által generált, hamis esetjogi hivatkozások megbuktak a bíróságok előtt, ami nem csak az MI megbízhatatlanságáról árulkodik, hanem a problémás felhasználási gyakorlatokról is – vagyis arról, hogy a technológiára hatékonyságnövelő eszközként érdemes tekinteni, nem pedig valamilyen csodaszerként, ami gombnyomásra elvégzi helyettünk a saját munkánkat.

Az automatizálás nem így működik

A beszámolók szerint az Egyesült Államokban már számos bíróság javasolt vagy hozott szabályokat az MI-alkalmazások használatáról, bár az ügyvédeknek az MI nélkül is tisztában kell lenniük a pontosságra vonatkozó követelményekkel. A hasonló fiaskók azonban tovább szaporodnak: legújabban egy másik New York-i jogászcég ügyvédei akadtak fenn egy szövetségi kerületi bírón, aki azt kifogásolta, hogy azok "a ChatGPT-4 MI-eszköz visszajelzéseire" hivatkozva állapították meg a díjazásukat. Az igényelt összegnek végül a felét ítélték oda nekik, teljes félreértésnek nevezve a chatbot bevonását a számításokba.

A cég képviselője a The Register kérdésére elmondta, hogy a mesterséges intelligencia használata ebben az esetben nem irányult bírósági dokumentumok előállítására, vagyis semmi köze nem volt a jogi folyamat befolyásolásához. De a bírónak sem önmagában a ChatGPT használatával volt problémája: azt is kifogásolta, hogy nem mutatták be a ChatGPT válaszaihoz tartozó bemeneteket, és azt sem tisztázák, hogy a művelet során támaszkodtak-e szintetikus adatokra. Érdekesség, hogy a Goldman Sachs már tavaly márciusban arról értekezett, hogy a jogászok feladatainak 44 százalékát automatizálni lehetne az Egyesült Államokban, ami egyre kevésbé tűnik megnyugtató lehetőségnek.

Piaci hírek

Lángokban áll Donald Trump közösségimédia-üzlete

Ő maga így sem feltétlenül jár majd rosszul, de a Trump Media mémrészvények lelkes befektetői nagyon könnyen ráfaraghatnak.
 
Másfél-két évtizede jósolják a papírmentes iroda eljövetelét. Bár a papírdokumentumok gyártásának volumene valóban csökkent, Paperless Land partjait még távcsővel sem látjuk.

a melléklet támogatója a GLOBAL-UNION Kft., a Kyocera márka kizárólagos magyar disztribútora

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.