Az Europol hétfői jelentésében részletezi, hogy a nyelvi MI-modellek hogyan szolgálhatják a kiberbűnözést, a csalásokat vagy akár a terrorizmust, ebben pedig megállapítja, hogy a bűnözők már most is használják a ChatGPT-t. Ebben az Európai Unió bűnüldöző szerve megállapítja, hogy az első gyakorlati példákra már hetekkel az eszköz nyilvános megjelensét követően rábukkantak, és előre látható, hogy az ilyen típusú programok milyen hatással lehetnek a munkájukra. Bár a ChatGPT alapból képes kezelni a potenciálisan káros beviteleket, az Europol szerint a felhasználók megtalálták a módját, hogyan lehet kijátszani az OpenAI tartalomszűrő rendszerét.
Volt, akinek sikerült kiszednie belőle a csőbomba vagy a crack kokain készítésének receptjét, mások pedig lépésről lépésre szóló útmutatást kértek tőle bűncselekmények elkövetéséhez. A dokumentumból kiderül, hogy ha valaki nem rendelkezik előzetes ismeretekkel egy bűnügyi területen, a ChatGPT segítségével gyorsan megszerezhet olyan kulcsfontosságú információkat, amelyek elvezetik a következő lépésekhez az otthoni betörésektől kezdve a számítógépes bűnözésen át a szexuális visszaélésekig. Igaz, hogy ilyesmi eddig is nyilvánosan elérhető volt az interneten, de az új modellek nagyban megkönnyíthetik a konkrét cselekmények végrehajtásának megértését.
Az alapvető keretek sincsenek lefektetve
Mivel a ChatGPT programkódokat is generál, lecsökkenti a rosszindulatú programok létrehozásához szükséges technikai ismereteket. Ezzel egyrészt felbecsülhetetlen értékű erőforrássá válik a korlátozott tudással rendelkező potenciális bűnözők számára, de egy képzettebb felhasználó is kihasználhatja a képességeit a módszerek finomítására vagy automatizálására. Az Europol ehhez hozzáteszi, hogy egyre több vállalat vezet be termékeiben a mesterséges intelligenciára épülő funkciókat és szolgáltatásokat, ami értelemszerűen a technológia illegális felhasználásával újabb lehetőségeket nyit a szintetikus média előállításában vagy a szándékos félretájékoztatásban.
A modellek az ilyen alkalmazásokon keresztül hozzájárulnak a deepfake hamisításhoz, a célpontok megszemélyesítéséhez, az adathalászathoz, vagy akár a terrorizmust támogató propaganda terjesztéséhez. A nagy nyelvi modellek (LLM) még nem nevezhetők kifinomultnak, de gyorsan fejlődnek, ahogy a techvállalatok egyre több erőforrást fektetnek a (multimodális) MI-rendszerek fejlesztésébe és integrálásába. Az Europol a készülő uniós szabályozásról szólva megjegyzi, hogy vannak ugyan javaslatok az általános célú MI (például a ChatGPT) magas kockázatú minősítésére, de egyelőre nem látszik, hogyan lehetne érvényt szerezni a rájuk vonatkozó szigorúbb követelményeknek.
A lehetséges problémák közé tartozik továbbá az úgynevezett "sötét LLM-ek" megjelenése, amelyeket a dark weben hosztolnak, és biztosítékok nélküli chatbotokat vagy speciális és kártékony adatkészleteken betanított nyelvi modelleket tesznek hozzáférhetővé. Végül ott van az alapvető bizonytalanság azzal kapcsolatban is, hogy szolgáltatók hogyan dolgozhatják majd fel a jövőben a potenciálisan érzékeny felhasználói adatokat, és milyen módon teszik ki azokat az illetéktelen harmadik feleknek. Ugyanígy kérdéses, hogy milyen jelentési kötelezettségük lesz a hatóságok felé, ha felhasználóik káros tartalmat generálnak az általuk biztosított eszközökkel.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak