Egy New York-i ügyvédnek a tárgyaláson kellett ráébrednie, hogy az MI-chatbotok válaszainak időnként semmi közük nincs a valósághoz, ezért precíz forrásellenőrzés nélkül hideg vizet sem érnek.

Az Avianca kolumbiai légitársaságot perlő ügyvédek egy összefoglalót nyújtottak be a bírónak korábbi esetekkel, az ellenérdekű fél ügyvédje azonban rámutatott, hogy ezek között hat olyan is volt, amelyik nem létező bírósági határozatokat tartalmazott hamis idézetekkel és hamis belső hivatkozásokkal. A The New York Times beszámolója szerint ezt a bíró is megerősítette, és külön meghallgatást kezdeményezett annak mérlegelésére, hogy szankcionálja-e a megtévesztő anyagot benyújtó ügyvédeket. Mint kiderült, a dolog mögött ezúttal is a ChatGPT állt.

Az egyik jogász ugyanis eskü alatt azt állította, hogy az OpenAI mesterséges intelligenciával hajtott chatbotját használták a kutatásaikhoz. Az adatok ellenőrzését a riport alapján annyival intézték el, hogy megkérdezték a programot, tényleg igazat mond-e, amikor pedig konkrétan rákérdeztek, hogy honnan származik az információ, a ChatGPT simán odahazudott nekik egy kitalált forrást. A robot egyébként a tévedések széles repertoárját vonultatta fel, a nem létező esetek mellett voltak összekevert ügyek és dátumok is, amelyekhez a gép váltig ragaszkodott.

Biztos igaz, különben miért írná

A pontos részletekért érdemes átbogarászni a NYT cikkét, a lényeg azonban annyi, hogy az ügyvéd saját bevallása szerint nem volt tudatában annak a lehetőségnek, hogy a ChatGPT hamis válaszokat is adhat. Természetesen nagyon sajnálja, hogy generatív mesterséges intelligenciával támogatta meg a jogi kutatásait, amit soha nem tenne meg újra a válaszok kimerítő ellenőrzése nélkül. Nem csoda, hogy mindebben újabb példát látnak annak a veszélyeire, hogy egyre töben használják kutatásra a chatbotokat, miközben elmulasztják a kimenetek felülvizsgálatát.

A programok egyébként egészen körmönfont módon képes eljutni a rossz válaszokig, és ahogy egy márciusi eset is kiválüan illusztrálra, és azt is tökéletesen illusztrálta, képtelenek értelmezni az általuk feldolgozott információt és felmérni annak megbízhatóságát. A robotok már egymástól is tanulják a sületlenségeket, rohamos térnyerésük pedig a teljes internetes információs teret lerombolhatja. A beágyazódott tévedéseket ugyanis lehetetlen lesz utólag feltérképezni, miközben a fejlesztők sincsenek vele teljesen tisztában, hogy mi lehet a saját modelljeikben

Közösség & HR

Nem tudjuk és nem is nagyon akarjuk használni az AI PC-t

Mindez egy Intel által rendelt nemzetközi kutatás eredményeiből olvasható ki. Az eladásban érdekelt csipgyártó összefoglalója azért igyekezett a potenciális pozitívumokra koncentrálni.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.