Január végén részletes jelentést adott ki a Google kiberbiztonsági fenyegetésekkel foglalkozó részlege (Google Threat Intelligence Group – GTIG) arról, hogy milyen formában igyekeznek kihasználni a a különböző hekkercsoportok a generatív algoritmusokhoz és általában a mesterséges intelligenciához köthető megoldásokat.
A keresőóriás természetesen ezzel kapcsolatban leginkább saját eszköze, a Gemini szerepét boncolgatja. A multimodális generatív algoritmust a jelek szerint egy sor, a Nyugattal rivalizáló vagy nyíltan szemben álló országban igyekeznek hasznosítani a kibertérben folyó műveletekben.
A jelentés alapján a feltételezések szerint kormányzati támogatást élvező, fejlett, tartós fenyegetést (advanced persistent threat – APT) jelentő észak-koreai, iráni, kínai és orosz bandák leginkább a termelékenység serkentésére használják az MI-modellt, egyaránt hasznát veszik a potenciális célpontok felderítésénél és a kiszemelt hálózati infrastruktúra feltérképezésénél. Annak azonban egyelőre nem sok jele látszik, hogy a hekkerek valamilyen formabontóan új támadási formát fejlesztettek volna ki a Gemini bevetésével.
A Google szakértői szerint a hatékonyság növelését célzó kísérletek változó mértékben tudták támogatni a kétes műveleteket. A biztonsági jelentés több mint 20 országból származó APT-csoportnál látta igazoltnak a Gemini használatát, amelyek közül a legjelentősebbnek a Teheránhoz és Pekinghez kötött bandákat minősítették.
Az MI-modell legjellemzőbb felhasznállási területének számít a szoftverek és szkriptek kódolása, a nyilvánosan közzétett sebezhetőségek felkutatása, a különböző technológiákhoz köthető dokumentáció ellenőrzése és fordítása, a megcélzott szervezettel kapcsolatos információgyűjtés, a különböző behatolási módszerek feltárása, vagy éppen a megszerzett jogosultságok kiterjesztése.
A riport kitér olyan esetekre is, amikor a hekkerek a Geminibe épített biztonsági szabályozók megkerülésével próbáltak illegális kimenetekhez jutni, de a Google szerint ezek a kísérletek nem jártak sikerrel.
Miért pont erre ne használnák?
A ChatGPT népszerűségének növekedésével párhuzamosan a cégek és a felhasználók egyaránt megpróbálják mindenre IS bevetni a generatív algoritmusokat, ezért nem volt meglepő, amikor kiderült, a hekkervilágban szintén felkapott lett a technológia. Tavaly nyáron derült ki például, hogy a Microsoft Copilot AI elleni támadások kézenfekvő lehetőségeket kínálnak a mesterséges intelligencia válaszainak manipulálására és az érzékeny adatok kinyerésére.
A ChatGPT-t fejlesztő OpenAI pedig a Google mostani jelentéséhez hasonló megállapításokat tartalmazó riportot hozott nyilvánosságra pár hónappal ezelőtt, miszerint a különböző fenyegető szereplők nagymértékben és rendszeresen igyekeznek visszaélni a generatív MI-eszközökkel.
A helyzetet tovább bonyolítja az olyan megoldások megjelenése, mint az amerikai riválisok árfolyamát bedöntő DeepSeek. A kínai modellek ugyanis jellemzően inkább az állampárt megkövetelte politikai szűrűk érvényesítésében erősek, de nem rendelkeznek olyan átfogó biztonsági protokollokkal, amelyekkel például a hekkertevékenységgel kapcsolatos felhasználást lehetne visszaszorítani.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak