Az OpenAI immár rendszeresen közöl jelentéseket arról, hogy a nagy nyelvi modellekre épülő megoldásaival kik és milyen területen próbálnak meg visszaéléseket elkövetni. A legfrissebb ilyen anyagot pár napja tették nyilvánossá [PDF], és elsősorban a kínai aktivitás fokozódására hívja fel a figyelmet.
A cég számos kínai csoportot azonosított, amelyek különböző titkos műveletekhez használták fel a ChatGPT-t. Az OpenAI fejlesztette generatív chatbot képességeit többek között a közösségi médiában folyó diskurzus manipulálásához, dezinformációs kampányokhoz és kiberműveletek támogatására vetették be. Ahogy a jelentés fogalmaz: a kínai aktivitás számosságát és változatosságát tekintve is érzékelhetően nőtt az elmúlt időszakban, az észlelt műveletek ugyanakkor általában kis léptékűek voltak és korlátozott közönséget céloztak meg.
Az OpenAI anyaga több példát is említ. A ChatGPT-vel kalapáltak szakmányban bejegyzéseket és kommenteket több közösségi platformon. A TikTokon, a Facebookon, a Redditen és az X-en megjelent tartalmak Kínával kapcsolatos politikai és geopolitikai témákat érintettek: például egy tajvani videójáték kritikáját, Donald Trump amerikai elnök vámpolitikáját, vagy éppen az USAID bezárásával kapcsolatos híreket. A cég olyan kampányokat is megfigyelt, ahol a cél az amerikai politikai diskurzus manipulálása volt azáltal, hogy oldaltól függetlenül felszaporították a megosztó témákról szóló megnyilvánulásokat.
Bár a mostani jelentés elsősorban Kínára összpontosított, az OpenAI munkatársai több olyan műveletet azonosítottak és akadályoztak meg (például a fiókok letiltásával), amelyeket más régióból irányítottak. A gyanú szerint ezekben érintett lehet többek között Oroszország, Irán és Észak-Korea is.
Általános probléma
A generatív algoritmusok felfutásával általános probléma lett, hogy nemcsak a diákok íratják meg a házijukat a chatbotokkal, hanem az online bűnszervezetek és más ártó szándékú csoportok is meglátták a technológiában rejlő lehetőséget.
Tavaly nyáron derült ki például, hogy a Microsoft Copilot AI elleni támadások kézenfekvő lehetőségeket kínálnak a mesterséges intelligencia válaszainak manipulálására és az érzékeny adatok kinyerésére.
Idén év elején pedig a Google figyelmeztett arra, hogy állami hátterű kibercsoportok turbózzák fel hatékonyságukat a Geminire támaszkodva. A jelentés alapján az észak-koreai, iráni, kínai és orosz bandák leginkább a termelékenység serkentésére használják az MI-modellt, egyaránt hasznát veszik a potenciális célpontok felderítésénél és a kiszemelt hálózati infrastruktúra feltérképezésénél.
A helyzetet tovább bonyolítja az olyan megoldások megjelenése, mint az amerikai riválisok árfolyamát bedöntő DeepSeek. A kínai modellek ugyanis jellemzően inkább az állampárt megkövetelte politikai szűrűk érvényesítésében erősek, de nem rendelkeznek olyan átfogó biztonsági protokollokkal, amelyekkel például a hekkertevékenységgel kapcsolatos felhasználást lehetne visszaszorítani.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak