Talán keveseknek kell bemutatni MrBeastet, aki elsődleges YouTube-csatornáján 444 millió feliratkozóval, összességében pedig több mint 630 követővel büszkélkedhet. A még mindig csak 27 éves, videóiból egész vállalatbirodalmat és szerteágazó portfóliót kiépítő Jimmy Donaldson az X-en nyilvánult meg a videókészítés jövőjéről.
When AI videos are just as good as normal videos, I wonder what that will do to YouTube and how it will impact the millions of creators currently making content for a living.. scary times.
— MrBeast (@MrBeast) October 5, 2025
MrBeast úgy látja, a gép által gyártott tartalom minősége már összemérhető az emberek által készített videókkal, ami borítékolhatóan hatással lesz a tartalmak előállításából élő milliókra. És mivel az elkövetkező időszakot ijesztőként írja le, így azt sem nehéz kitalálni, hogy szerinte ez a hatás bizony erősen negatív lesz.
A YouTube legnépszerűbb figurájának egyébként közvetlenül valószínűleg kevesebb a vesztenivalója, hiszen csapatával jellemzően külső helyszíneken, valódi emberekkel, azok különleges szituációkra adott reakcióin alapuló sajátságos anyagokat forgat. Sokakat viszont valóban egzisztenciális szinten fenyegethet a generatív algoritmusok térhódítása, ám nem csak amiatt, mert a nagy nyelvi modellek egyre kifinomultabb produktumra képesek.
Mélyebb probléma
A problémával kapcsolatban épp tegnap jelent meg a Kurzgesagt – In a Nutshell csatornáján egy közérthető anyag. A videó címe alapján ugyan arra gondolhatnánk, hogy csak saját létezésükért aggódnak a közel 25 millió feliratkozóval büszkélkedő csatorna készítői, ám szerintük az AI slop, azaz az MI-gányolás társadalmunk egészére kihat, és egyáltalán nem jó értelemben.
A Kurzgesagt saját tapasztalatból, egy konkrét példán végigmenve vezeti le az MI-vel kapcsolatos aggályokat. A csapat egy új anyag elkészítésére fogta be több modellfejlesztő jelenleg elérhető legjobb, fizetős megoldását. A téma a csillagászatban barna törpének nevezett égitestek különlegességeinek bemutatása volt, amiről a generatív algoritmusok pillanatok alatt készítettek egy ránézésre nagyon alapos, jól követhető, gondosan válogatott összefoglalót.
Azonban amikor egyes adatoknak elkezdték a forrását és a valóságalapját kutatni, kiderült, hogy számos esetben egyáltalán nincs ilyen, vagy maximum valamiféle homályos, megbízhatatlan forrást, utalást találtak. Ezt követően szakemberek kapták meg lektorálásra a gép által kreált beszámolót, akik pontosan azokat a részeket jelölték meg problémásként, amelyeknél a Kurzgesagt sem bukkant kredibilis háttérre.
Nem kéne ennyit haluzni
Mindez az algoritmusok hallucinációjával van összefüggésben. A modellek működésének régóta ismert negatív mellékhatása, hogy teljesen valótlan dolgokat képesek kitalálni, és ezeket a lehető legnagyobb magabiztossággal tényként tálalni. És mivel mindezeket egy csomó valóban helyes kijelentés, adat és információ közé képes elszórni az MI, ezért ezek kiszúrása sem triviális.
A pár mondat megadásával készíthető MI-anyagok elterjedése tehát nemcsak a valódi emberek által készített minőségi tartalom elől veszi el a figyelmet és a kattintásokat, hanem alapvetően torzítja az emberek látásmódját, a fejekben meglévő tudásanyagot. Sok esetben úgy, hogy a felhasználó nincs is tudatában annak, hogy éppen algoritmusok által összeeszkábált, mérsékelten korrekt videóval vagy írásos anyaggal van dolga.
Az eddig az internet alapját adó keresést is kikezdő mesterséges intelligencia ráadásul a valóságtól egyre elrugaszkodottabb gondolatokkal állhat elő, mivel ahogy terjed az AI slop a világhálón, úgy tudnak a modellek a későbbiekben ezekre mint megbízható forrásokra támaszkodni. Azaz a hülyeség csak még nagyobb hülyeséget szül, egyelőre pedig nem világos, hogy lehet ebből az ördögi körből kiszabadulni.
(Kép: Kurzgesagt / YouTube)
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak