A diákok azonnal meglátták a lehetőséget a nagy nyelvi modellekre épülő chatbotokban, időközben pedig kiderült, hogy időnként a tudományos világ szereplői sem ódzkodnak egy kis gépi segítségtől – legalábbis erre utal, hogy milyen súlyponteltolódások figyelhetők meg az angol nyelvű tudományos anyagok szóhasználatában. Bár a mesterséges intelligencia összességben annak lehet hasznos munkaeszköz, aki nélküle is elboldogul, közvetlen és közvetett bizonyítékok egész sora ad róla pontos képet, hogy ma már milyen rutinszerűen szervezik ki a házi feladatok és dolgozatok elkészítését az MI-modelleknek. A probléma ráadásul messzebbre vezet a csalásokszaporodásánál, hiszen az Egyesült Államokban például az írás-olvasás képességének visszaesése már problémát jelent a kisiskolásoktól egészen a felsőoktatásba jelentkezőkig.
A mesterséges intelligencia nem megfelelő felhasználását mindenféle módszerrel igyekeznek szűrni és korlátozni, ezek azonban nem feltétlenül hozzák a kívánatos eredményeket. Az olyan politika nyilván az első pillanattól kudarcra van ítélve, amelyik nem tekinti adottságnak az MI-eszközök széles körű hozzáférhetőségét, és ahogy már hazai példák is vannak rá, bizonyos esetekben bőven elég lenne, ha egyszerűen csak mindenki végezné a saját dolgát. A generatív MI-vel gyártott tartalom kiszűrésére természetesen maga a mesterséges intelligencia nyújtja a leghatékonyabb megoldást, ha figyelembe vesszük az ilyen anyagok potenciális mennyiségét és a technológia fejlődését, de az automatizált eljárások jól ismert hátulütői ebben az esetben is kezdenek látványossá válni, ráadásul minden korábbinál nagyobb téttel bíró ügyekben.
Az emberi és a gépi tevékenység szétválogatása már a hétköznapi internetes felhasználásban sem egy kifejezett sikertörténet, ha azt nézzük, hogy a szoftverrobotok szaporodásával nekünk kell egyre gyakrabban bizonyítanunk, hogy emberek vagyunk. Ez már a különféle CAPTCHA tesztek menetrendszerű felbukkanásával is elég nyomasztó, hiszen lényegében nekünk kell alkalmazkodnunk a gépekhez, amelyek célja elvileg az életünk megkönnyítése lenne. A dolog még érdekesebb, amikor meg is kell(ene) védenünk magunkat az automatizált rendszer döntésével szemben, mint mondjuk a Facebook-tartalmak letiltásakor, és egészen hajmeresztővé válik, ha az MI-alapú szűrők téves jelzését követően a dolgozatok szerzőinek maguknak kell bizonyítaniuk, hogy nem használták szabálytalan módon a mesterséges intelligenciát.
Ennek így nem lesz sok értelme
Az ausztrál ABC News riportja alapján éppen ez történt az Australian Catholic University (ACU) hallgatóival: ahogy a lapnak nyilatkozó hallgató beszámolt róla, végzősként már éppen állásokra próbált jelentkezni, amikor "tudományos integritási aggályok” címmel levelet kapott az egyetemtől. Ebben azzal vádolták, hogy mesterséges intelligenciát használt az egyik feladatához, és az ACU illetékesei nemcsak a vonatkozó, kézzel írott és gépelt jegyzeteit követelték, de az internetes keresési előzményeit is bekérték volna annak igazolására, hogy valóban nem csalt a dolgozat elkészítésekor. Mint kiderült, a Madeleine néven hivatkozott diákot végül tisztázták a vád alól, de erre hat hónapot kellett várnia, és ezalatt értelemszerűen elbukta az összes jelentkezését is, amit a leendő végzettségének megfelelő álláshelyekre adott le.
Az ügy azért különösen izgalmas, mert az egyetem egy mesterségesintelligencia-rendszer eredményeire alapozva függesztette fel a hallgatóját. Vagyis már nemcsak az egyik oldalon gyanakodnak (valószínűleg jogosan) a népszerű MI-eszközökkel elkövetett csalásokra, hanem a másik oldalon is belefutnak a mesterséges intelligencia minimum tolakodó és kártékony alkalmazásába. Az ACU ebben az esetben egy olyan, MI-alapú detektort használt a plágium észlelésére, ami megbízhatónak jóindulattal sem volt nevezhető, és amelynek gyártója maga is arra figyelmeztet, hogy nem szabad kizárólagos alapként használni az ilyen ügyekben hozott intézkedésekhez. Figyelmeztetéseket persze az MI-chatbotok üzemeltetői is közölnek a rövidebb utat kereső diákokkal, de ezt ők is inkább csak a jegyzőkönyv kedvéért teszik.
Ahogy a Futurism cikke összefoglalja az ügy tanulságait, a mesterséges intelligencia térnyerésének ezzel tényleg rémálomszerű hatása lehet az oktatásban, visszafordíthatatlanul aláásva az oktatók és a diákok közötti bizalmat. Az már kiderült, hogy az MI felhasználását értelmetlen és hatástalan lenne tiltani, de egyelőre az sem látszik, hogy milyen kifutása lehet a másik fajta megközelítésnek, amelynek értelmében büntetés helyett a mesterséges intelligencia helyes használatára kellene megtanítani az embereket. Az biztos, hogy a képmutatás minden területen meghatározza az MI térnyerését, kezdve mindjárt a modellek és szolgáltatások fejlesztőivel; valószínűleg annak a ABC News által megszólaltatott professzornak lesz igaza, aki szerint azt kellene minél pontosabban ellenőrizni, hogy a hallgató mit tanult, nem pedig azt, hogy mikor csalt.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak