Sárkány ellen sárkányfű - gondolta egy tudóscsapat, és betanított egy algoritmust arra, hogy kiszúrja a generatív mesterséges intelligenciával gyártott kamu tudományos cikkeket.

Ahogy tavaly év végén széles körben elérhetővé vált az OpenAI ChatGPT-je, szinte azonnal feltűntek az első példák arra, milyen módokon lehet az emberi nyelvezethez hasonlatos szövegeket pillanatok alatt elkészítő algoritmust nemtelen célokra használni. Az egyik leginkább érintett terület az oktatás és a tudományos világ volt. New Yorkban például már idén januárban kitiltották a ChatGPT-t, több nagy tudományos kiadó pedig szabályzatának módosításával igyekezett visszagyömöszölni a szellemet a palackba.

Ahogy azonban a generatív MI fejlődik, úgy válik egyre nehezebbé a gép által készített szövegek felismerése, a jelenleg elérhető detektáló szoftverek pedig nem képesek nagy pontossággal dolgozni. Szerencsére a mesterséges intelligencia a másik oldalon is bevethető, amire egy frissen publikált kutatási projekt szolgál bizonyítékkal.  

A Kansasi Egyetem munkatársai a tudományos folyóíratokban megjelenő publikációkra fókuszálva igyekeztek olyan rendszert alkotni, amely megbízható módon szűri ki az algoritmus kreálta tartalmakat. A kutatást vezető Heather Desaire professzor szerint a generatív MI által írt szövegek (egyelőre) több olyan sajátossággal rendelkeznek, amelyek mentén el lehet választani a búzát a pelyvától. Megjelenésük a tudományos szcénában ugyanakkor konkrét veszélyeket hordoz, mivel a sok forrásból összetákolt anyagoknál kimarad az ellenőrzési lépés, azaz könnyen bekerülhet téves, pontatlan vagy tudományosan nem igazolt megállapítás.

Tüzet oltanak tűzzel

A kutatócsapat az értékelést végző algoritmus betanításához első körben kiválasztott 64 számos tudományágból származó, valódi emberek által írt publikációt. Ezekből kiindulva aztán megkérték a ChatGPT-t, hogy generáljon ugyanezeket a kutatásokat leíró anyagokat, amiből végül 128 darab hamis cikk kerekedett. Ezután a szakemberek a saját algoritmusuk teszteléséhez további két adathalmazt állítottak össze, amelyek mindegyike 30 valódi publikációt és 60 ChatGPT által írt cikket tartalmazott.

Az első eredmények rögtön látványos sikert hoztak. Az osztályozást végző MI az esetek 100 százalékában képes volt megkülönböztetni az emberektől származó valódi tudományos írásokat az AI által generált cikkektől. Ha csak egy-egy bekezdést kapott feladatul a program, akkor a pontosságá némileg csökkent, de még így is 92 százalékos hatékonysággal volt képes felismerni a gépi alkotásokat.

A jó eredményeket a kutatók annak tulajdonítják, hogy rendszerük nagy figyelmet fordít a tudományos élet képviselőire jellemző stílusjegyekre. A tudósok jellemzően gazdagabb szókinccsel rendelkező, hosszabb és változatosabb szavakat tartalmazó bekezdéseket írnak, mint amire a ChatGPT képes. Az is árulkodó, hogy emberek a gépnél sokkal gyakrabban használnak írásjeleket (kérdőjeleket, zárójeleket, pontosvesszőket). Az algoritmus hajlamos a slendriánságra is: nem ad háttérinformációt a közölt számokról, továbbá az emberekhez képest sokkal ritkábban említi más tudósok nevét.

Azt ugyanakkor a kutatás vezetője is elismerte, hogy most publikált eredményeik csak egy proof-of-concept tanulmánynak tekinthetők, mivel a munka hatóköre korlátozott volt, és további vizsgálatokra van szükség ahhoz, hogy kikristályosodjon, mennyire használható mindez a gyakorlatban is.

Cloud & big data

Nadella: minden eszközbe szeretnénk bevinni a Copilotot

A szeptember 26-án érkező frissítéssel minden Windows 11-nek része lesz a Copilot, jelentette be tegnap a Microsoft New Yorkban.
 
Hirdetés

Acronis webinárium az AI-vezérelt kibertámadások kivédéséről

Csatlakozzon 2023. szeptember 26-án az Acronis és a RelNet Technológia Kft. közös szervezésű, exkluzív webináriumához, melynek témája a mesterséges intelligencia által vezérelt kibertámadások hatásainak kezelése lesz.

Hirdetés

Jön a Clico formabontó cloud meetupja, ahol eloszlatják a viharfelhőket

Merre mennek a bitek a felhőben, ledobja-e szemellenzőjét az IT-biztonságért felelős kolléga, ha felhőt lát, lesz-e két év múlva fejlesztés cloud nélkül? A Clico novemberben fesztelen szakmázásra hívja a szoftverfejlesztőket a müncheni sörkertek vibrálását idéző KEG sörművházba.

A felhő elhozta a webalkalmazások és a mikroszolgáltatásokra épülő architektúra aranykorát – és egy új, súlyos kockázati elemmel is bővült az IT-infrastruktúra.

a melléklet támogatója a Clico Hungary

Hirdetés

Kilátások az Dunától keletre – állás Gyöngyös városában

A munkalehetőségek terén az ország különböző régiói meglehetősen eltérő lehetőségeket kínálnak, mind mennyiségben, mind minőségben. Ebből a szempontból a legtöbb szó a Dunától keletre lévő területekről esik, ám természetesen itt is találhatók kedvező állás opciók.

Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.