Vaskos biztonsági jelentést [PDF] tett közzé az OpenAI, amely a cég generatív algoritmusainak rossz szándékú felhasználását veszi górcső alá. A több mint félszáz oldalas anyag leginkább a mesterséges intelligencia fejlődéséből fakadó potenciális kiberbiztonsági kockázatokat igyekszik minimalizálni, de szerepel benne egy a cég ellen irányuló közvetlen támadási kísérlet is.
Csak semmi személyeskedés!
Ez utóbbi mögött a gyanú szerint egy kínai banda állt, amely a vállalat több munkatársán keresztül próbált hozzáférést szerezni értékes belső adatokhoz. A személyre szabott adathalászat során a célpontok privát és céges levelezését egyaránt megcélozták az elkövetők.
A SweetSpecter néven hivatkozott csoport a preparált levelekkel a SugarGh0st RAT kártékony programot igyekezett feltelepíteni a gyanútlan munkatársak gépére. A távol elérést biztosító trójaival könnyedén lehet a fertőzött gépen többek között parancsokat futtatni, képernyőképeket menteni és általában információkat lopni.
Az OpenAI ugyanakkor "hiteles forrásból" fülest kapott az akcióról, így még azelőtt fel tudták húzni a pajzsot, hogy bármiféle támadási kísérlet történt volna. A kártékony leveleket a vállalat biztonsági rendszere blokkolta, így azok meg sem érkeztek a kiszemelt áldozatok fiókjaiba.
A cég az eset kapcsán az iparági partnerekkel való szoros együttműködést emelte ki, ami elengedhetetlen "annak érdekében, hogy a mesterséges intelligencia korában a kifinomult ellenfelek előtt maradjunk".
Próbálkoznak, próbálkozgatnak
A jelentés nagyobb része ugyanakkor az OpenAI fejlesztette modellek ártó szándékú felhasználására koncentrál. A SweetSpecterről például kiderül, hogy a kínai(nak sejtett) csoport is igyekszik tevékenységénél a cég szolgáltatásait kamatoztatni, például a potenciálisan kihasználható sebezhetőségek felkutatásánál, illetve a szkriptelés támogatásánál.
A cég természetesen igyekszik a lehető legkisebb mértékűnek beállítani a generatív MI elterjedésével járó internetes kockázatokat. A jelentés több konkrét példa bemutatása mellett arra a következtetésre jut, hogy a fenyegető szereplők ugyan változatos módokon igyekeznek kamatoztatni az OpenAI termékeit, ám ezekből a kísérletekből egyelőre nem születtek teljesen új támadási metódusok és a hatékonyság sem javult számottevően.
A ChatGPT fejlesztője egyben azt is közölte, hogy a közelmúltban világszerte több mint 20 olyan kártékony szándékú műveletet és hálózatot zavart meg, amelyek a cég modelljeit próbálták felhasználni.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak