Az egyik brit egyetemen egy látáványos akcióval hívták fel a figyelmet a tudományos integritást fenyegető veszélyre, bár a megoldás ettől nég ne lett világosabb.

Az angliai Plymouth Marjon Egyetem (PMU) munkatársai meggyőző módot találtak rá, hogy megkongassák a vészharangot az MI-chatbotok egyre terjedő felhasználása miatt a tudományos publikációk területén. Teljes egészében a ChatGPT segítségével készítették el Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT (kb. Csevegés és csalás: a tudományos integritás biztosítása a ChatGPT korszakában) című tanulmányukat, amit aztán be is nyújtottak szakértői értékelésekre, hogy megvizsgálják, mennyire észrevétlenül csúszhat át az ilyesmi az ellenőrző folyamatokon.

Mint kiderült, teljesen simán: sem az olvasóknak, sem a közzétételt engedélyező szakértőknek nem tűnt fel, hogy az MI-chatbotok ellentmondásos alkalmazására figyelmeztető cikket éppen egy ilyen rendszer írta meg. A kutatók a saját nevük alatt publikálták az anyagot, és mint a Guardian tudósításából kiderül, az nem akadt fenn sem a plágiumgyanús elemek kiszűrésére való szoftvereken, sem magukon az emberi lektorokon, akik közül négyet is sikerül kijászaniuk – a dolgozatot csak akkor jelölték meg, amikor a szerzők már személyesen értesítették a dologról az érintett szerkesztőket.

Szóljon, akinek van valami ötlete

A kísérlet egy újabb látványos jelzés az akadémiai rendszernek, amelyik amúgy is nehezen birkózik meg a ChatGPT és társai jelentette kihívásokkal. Az már januárra világos lett, hogy az új megoldások legnagyobb felhasználói az egyetemisták lettek, és a megfelelő szabályozás hiányában könnyen elmosódik a határvonal a segédeszköz és csalás között. A nagy tudományos kiadók közül is többen helyezkedtek arra az álláspontra, hogy az ilyen anyagok a gépi tanuló modellek működéséből következően átlépik a plágium határvonalát, elősegítve a téves vagy hamis eredmények beágyazódását.

Bár léteznek árulkodó jelek annak eldöntésére, hogy egy adott dolgozatot ember vagy mesterséges intelligencia hozott létre, a mesterséges intelligencia nyomait egyetlen tudós vagy ellenőrző szoftver sem képes teljesen megbízhatóan jelezni. Vagyis hiába hoznak akár büntetéssel fenyegető szabályokat, ha a felderítés ennyire trükkös és széleskörű problémát jelent, aminek nem igazán kedvez a "publikálj vagy pusztulj" kutatási kultúra sem. A Guardian által idézett egyetemi dolgozó szerint ma már rendszeresen bukkannak ilyen esetekre, de arról fogalmuk sincs, hogy hány esetre nem bukkantak rá.

Közösség & HR

Sztrájkba kezdenek a videójátékok szinkronszínészei az MI miatt

A hollywoodi színészek és a játékkészítő stúdiók képviselői közel álltak a megállapodáshoz, ám a generatív algoritmusok jelentette problémákat egyelőre nem sikerült megnyugtatóan rendezni.
 
Általános jelenség a hazai nagyvállalatok körében, hogy a szükségesnél jelentősen többet költenek nyilvánosfelhő-szolgáltatásokra. Utánajártunk, mi a pontos helyzet, és mit lehet tenni a költségek optimalizálásáért.

a melléklet támogatója a 4iG Nyrt.

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.