A ma már szinte minden keresőben elérhető MI-összefoglalók alapjaiban változtatják meg a felhasználók viselkedését, ami teljesen szétzilálhatja az internet eddigi működési modelljét. Mindez például a Wikipediára nézve komoly veszély, az internetezők szemszögéből viszont érthető, ha egy-egy egyszerűbb kérdés kapcsán nem ásnak mélyebbre és elfogadják, ami az összefoglalóban áll (a hallucináció kockázatára azért itt is érdemes figyelni). Azonban mint egy nemrégiben publikált kutatási projektből kiderült, ugyanez a magatartás nem kifizetődő, ha valamivel kapcsolatban kicsit is alaposabban szertnénk kiművelni magunkat.
Felületes eredmények
A két amerikai egyetem munkatársai által jegyzett közös projekttel alapvetően azt szerették volna megvizsgálni, hogy milyen eltérések figyelhetők meg a tanulási folyamatban, ha az emberek algoritmusok által készített összefoglalókra, illetve az ezeket megalapozó közvetlen internetes találatokra támaszodva készülnek fel egy-egy témából.
A résztvevőknek összesen hét különböző témában kellett elmélyedniük az alapvető kertészkedési módszerektől a pénzügyi csalások felismeréséig. A jelentkezők egyik fele a ChatGPT és a Google AI Overviews által készített összefoglalókat kapta alapanyagként, a többiek viszont a témához kapcsolódó keresési találatokból dolgoztak, amelyek cikkekhez, szakmai anyagokhoz vezettek. A feldolgozást követően saját kútfőből kellett írni egy útmutatót, amit a tesztalanyok egy elképzelt barátjuknak címeztek.
A több mint 10 ezer résztvevő bevonásával elvégzett kísérlet meglehetősen egyértelmű eredményeket hozott. Talán sokak számára fájdalmas a hír, de úgy tűnik, a személyes bevonódást, az időigényes tanulási folyamatot nemigen lehet kiváltani nagy nyelvi modellek által összelapátolt tömörítésekkel.
Akik MI-összefoglalókat használtak, azok kimutathatóan kevesebb időt töltöttek a források tanulmányozásával, kevesebb információt sajátítottak el és általában kevésbé kötődtek az adott témához. A barátoknak címzet tanácsok kevés tényt és adatot tartalmaztak, rövidek voltak és nagyban hasonlítottak az ugyanabba a tesztcsoportba került többi delikvens írásához.
A kutatás végén felkértek 1500 új embert, hogy értékeljék a korábban született műveket. A visszajelzések alapján az MI-összefoglalókkal dolgozó önkéntesek anyagait kevéssé informatívnak és megbízhatónak ítélték, és összességében nem arattak túl nagy sikert az ítészek körében.
Ezt is csak mértékkel érdemes fogyasztani
A fenti eredmények miatt az egyetemi szakemberek megállapították, hogy ha valaki túlzottan rábízza magát a generatív algoritmusok által összelapátolt anyagokra, az káros hatással lehet a tanulási, megértési képességre – mindez különösen veszélyes az ilyen eszközökkel készségszinten élő fiatal korosztály esetében. Ugyanakkor hozzátették azt is, hogy ez csak abban az esetben igaz, ha az MI teljesen kiváltja az önálló tanulási folyamatot. Tehát a nagy nyelvi modellek észszerű, kiegészítő jellegű használata nem jelent ilyen problémát.
A szerzők szerint "bár az LLM-ek számos kontextusban jelentős előnyöket hozhatnak a képzés és az oktatás támogatásában, a felhasználóknak tisztában kell lenniük a túlzott ráhagyatkozás kockázataival, amelyek gyakran észrevétlenek maradnak. Ezért jobb, ha nem hagyjuk, hogy a ChatGPT, a Google vagy más modell "guglizzon" helyettünk."
A frissen kiadott tanulmány megállapításai annyiban persze nem tekinthetők váratlannak, hogy ez már a sokadik olyan kutatás a sorban, amely az MI túlhasználatának potenciális kockázataira figyelmeztet. Legutóbb például egy MIT-n végzett kísérletről számoltunk be, ahol kiderült, nem tesz jót az agyműködésünknek, ha túlzottan a generatív algoritmusokra bízzuk magunkat.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak