A generatív MI-eszközök mögött álló vállalatok elvileg folyamatosan fejlesztik azokat a biztonsági funkciókat is, amelyek képesek megakadályozni a hamis információ vagy a más módon káros tartalmak létrehozását és terjesztését. Ezek a biztonsági intézkedések azonban nem érnek sokat, ha valaki tudatosan ki akarja játszani őket – derült ki a Carnegie Mellon Egyetem és a Center for AI Safety kutatóinak kísérletéből, amelynek során sebezhető pontokat kerestek a ChatGPT (OpenAI), a Bard (Google) vagy a Claude (Anthropic) intelligens chatbotokban. A nagy nyelvi modellek (LLM) automatizált támadásával ugyanis sikerült átverniük a rendszereket, megkerülve a félretájékoztatás és gyűlöletbeszéd ellen felállított tartalomszűrőket.
A The New York Times beszámolója szerint egy nyílt forrású MI-rendszert használtak a modellek ellen. Mivel a robotoknak direktben nem lehet feltenni az illegális tevékenységeket, erőszakot vagy hasonló témákat nem megfelelő módon tárgyaló kérdéseket, a szakemberek egyszerűen átverték a rendszereket, hosszú karaktersorozatot fűzve a promptok végéhez. Amikor a chatbotok feldolgozták az álcázott parancsokat, az extra karakterek miatt nem voltak képesek felismerni a blokkolt vagy módosítandó információt, és olyan válaszokat generáltak, amelyeket normális körülmények között nem hoztak volna létre. Ez pedig nyilván a modellek sebezhetőségét mutatja, ami könnyen vezethet a velük kapcsolatos visszaéléshez.
A tetővel kezdték építeni a házat
Mivel az MI-chatbotok ilyen könnyen félreértelmezik a bemeneteket, a kutatók szerint biztonsági készségek és a tartalomszűrők felépítésének teljes újraértékelésére is szükség lehet. A ZDnet riportja a kísérlet egyik vezetőjét idézi, aki úgy látja, hogy az ilyen típusú sebezhetőségek folyamatos kutatása felgyorsíthatja az MI-rendszerekre vonatkozó kormányzati szabályozások kidolgozását. A problémára azonban ő sem lát kézenfekvő megoldást, hiszen éppen az MI-nek köszönhetően rövid idő alatt is tetszőleges számú támadást lehet lezavarni a ChatGPT és a többi szolgáltatás ellen. A szerzők az érintett cégekkel is megosztották eredményeiket, akik állítólag elismerték, hogy több munkára lesz szükség a modellek védelméhez.
Néhány héttel korábban mi is beszámoltunk egy másik demonstrációról, amikor a Mithril Security munkatársai egy nyílt forrású nagy nyelvi modellt módosítottak, hogy az téves információt terjesszen egy adott témakörben. A "mérgezett" LLM azonban minden más feladatnál megőrizte normális működését, így a hagyományos benchmarkok sem voltak képesek kiszűrni a rendellenességet. Mint kiderült, nem igazán létezik kielégítő megoldás a modellek eredetének meghatározására, nem beszélve a betanításuk során felhasznált adatokról. Mivel a rendszerek képzése erőforrásigényes, sokan veszik igénybe harmadik felek előre betanított megoldásait, az ellátási lánc sérülékenységét pedig a rosszindulatú szereplők is kihasználhatják.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak