A Science és a Springer Nature a múlt héten vezetett be új szabályokat a generatív mesterséges intelligencia használatára vonatkozóan szerkesztői szabályzatában. A két vezető tudományos folyóirat frissített irányelvei az OpenAI legújabb terméke, a ChatGPT térnyerésére adott válasz, miután a nagy nyelvi modell (large language model, LLM) már képes koherens szövegek létrehozására a különféle utasítások alapján, beleértve a tudományos dolgozatokat. Az eszköz így a kutatók körében is népszerű lett, néhányan pedig szerzőként is megjelölik munkáikban a ChatGPT-t.
A Science azonban most arra figyelmezteti a tudósokat, hogy az ilyen kéziratok benyújtása visszaélésnek minősül, a vonatkozó eszközök pedig nem használhatók a szerkesztők kifejezett engedélye nélkül a náluk megjelenő cikkekben, legyen szó akár a hozzájuk tartozó képekről vagy ábrákról. A Nature ugyancsak visszautísítja azokat a dokumentumokat, amelyek szerzőként hivatkoznak valamilyen generatív MI-szoftverre. Igaz, ott nem tiltották le ennyire egyértelműen az alkalmazásukat, csak azt követelik meg, hogy jelöljék meg a dolgot a publikációk megfelelő szakaszaiban.
A The Register tudósítása a Science főszerkesztőjét idézi, aki szerint az MI által létrehozott tartalom a plágium egyik formája, mivel a modelleket az internetről összekapart szövegeken tanítják be, és a kimenetekben olyan mondatok is megjelennek, amelyek túlságosan hasonlítanak a tanítási adatokban szereplő eredetihez. A probléma egyébként nem csak az eredetiség vonatkozásában jelentkezik: az Amazon például arra figyelmeztette dolgozóit, hogy ne etessék bizalmas céges adatokkal a ChatGPT-t, mert azokat a megfelelően feltett kérdésekkel máshol visszanyerhetik belőle.
Végül minden a tudósokon múlik
Egy másik fontos szempont, hogy a ChatGPT képes ugyan nyelvtani hibáktól mentes szövegeket alkotni, a bennük megjelenő tényeket és állításokat azonban senki sem ellenőrzi. Ez nyilván a szándékos hamisítás előtt is új távlatokat nyit, az MI által generált szöveg pedig hamarosan bekerülhet a szakirodalomba, ami ellen egyelőre csak a szigorú szerkesztési irányelvek jelenthetnek valamilyen védelmet. Könnyűnek ez sem ígérkezik, mert a ChatGPT nyers kimenete felismerhető ugyan (különösen a hosszabb szövegek esetében), de teljes bizonyossággal nem szűrhető ki.
A riportból kiderül, hogy a Nature-t kiadó Springer Nature már fejleszti saját szoftverét a mesterséges intelligencia által generált szöveg észlelésére, a Science pedig más cégek által fejlesztett észlelő szoftverek felhasználásában gondolkodik. A lap főszerkesztője a tudósok lelkére is megpróbált hatni, amikor arról beszélt, hogy a tudományba vetett bizalom erodálódik, ezért nekik is újra el kellene kötelezniük magukat a részletekre vonatkozó aprólékos figyelem mellett. Bár a gépek fontos szerepet játszanak a kísérleteket megtervező és az eredmények értelmezését végző emberek támogatásában, a terméknek végső soron "a fejünkben lévő csodálatos számítógépből kell származnia, és azáltal is kell kifejeződnie".
Abban a legtöbben egyetértenek, hogy a technológia alkalmazásának kereteket kell szabni, de érdekes vita van kialakulóban azzal kapcsolatban, hogy ez menni fog-e a megszokott rutinok átalakítása nélkül. A New York-i állami oktatásban például már le is tiltották a diákok és a tanárok iskolai hozzáférését a ChatGPT-hez, ettől azonban az eszköz ugyanolyan széles körben elérhető marad. Van, aki szerint inkább a "rubrikák kitöltéséről szóló oktatástól" kellene eltávolodni, és az új technológiát pedig munkába kellene állítani, hogy a diákokat a "tudni érdemes dolgok felfedezésére" ösztönözze.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak