Egy New York-i ügyvédnek a tárgyaláson kellett ráébrednie, hogy az MI-chatbotok válaszainak időnként semmi közük nincs a valósághoz, ezért precíz forrásellenőrzés nélkül hideg vizet sem érnek.

Az Avianca kolumbiai légitársaságot perlő ügyvédek egy összefoglalót nyújtottak be a bírónak korábbi esetekkel, az ellenérdekű fél ügyvédje azonban rámutatott, hogy ezek között hat olyan is volt, amelyik nem létező bírósági határozatokat tartalmazott hamis idézetekkel és hamis belső hivatkozásokkal. A The New York Times beszámolója szerint ezt a bíró is megerősítette, és külön meghallgatást kezdeményezett annak mérlegelésére, hogy szankcionálja-e a megtévesztő anyagot benyújtó ügyvédeket. Mint kiderült, a dolog mögött ezúttal is a ChatGPT állt.

Az egyik jogász ugyanis eskü alatt azt állította, hogy az OpenAI mesterséges intelligenciával hajtott chatbotját használták a kutatásaikhoz. Az adatok ellenőrzését a riport alapján annyival intézték el, hogy megkérdezték a programot, tényleg igazat mond-e, amikor pedig konkrétan rákérdeztek, hogy honnan származik az információ, a ChatGPT simán odahazudott nekik egy kitalált forrást. A robot egyébként a tévedések széles repertoárját vonultatta fel, a nem létező esetek mellett voltak összekevert ügyek és dátumok is, amelyekhez a gép váltig ragaszkodott.

Biztos igaz, különben miért írná

A pontos részletekért érdemes átbogarászni a NYT cikkét, a lényeg azonban annyi, hogy az ügyvéd saját bevallása szerint nem volt tudatában annak a lehetőségnek, hogy a ChatGPT hamis válaszokat is adhat. Természetesen nagyon sajnálja, hogy generatív mesterséges intelligenciával támogatta meg a jogi kutatásait, amit soha nem tenne meg újra a válaszok kimerítő ellenőrzése nélkül. Nem csoda, hogy mindebben újabb példát látnak annak a veszélyeire, hogy egyre töben használják kutatásra a chatbotokat, miközben elmulasztják a kimenetek felülvizsgálatát.

A programok egyébként egészen körmönfont módon képes eljutni a rossz válaszokig, és ahogy egy márciusi eset is kiválüan illusztrálra, és azt is tökéletesen illusztrálta, képtelenek értelmezni az általuk feldolgozott információt és felmérni annak megbízhatóságát. A robotok már egymástól is tanulják a sületlenségeket, rohamos térnyerésük pedig a teljes internetes információs teret lerombolhatja. A beágyazódott tévedéseket ugyanis lehetetlen lesz utólag feltérképezni, miközben a fejlesztők sincsenek vele teljesen tisztában, hogy mi lehet a saját modelljeikben

Közösség & HR

Egyre nyomorultabb képet mutat az úttörő európai MI-szabályozás

Nem úgy tűnik, hogy az uniós intézmények még az év vége előtt megállapodnak a legfontosabb kérdésekben, később pedig fokozatosan megbénulnak majd a jövő májusi választásokig.
 
Ez a kkv-k problémája világszerte. A megoldásszállítók pedig rendszer a széttagoltságra, a sok egyedi igényre, és az ebből eredő magas fejlesztési és támogatási költségekre panaszkodnak.

a melléklet támogatója a Yettel

Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.