Vaskos biztonsági jelentést [PDF] tett közzé az OpenAI, amely a cég generatív algoritmusainak rossz szándékú felhasználását veszi górcső alá. A több mint félszáz oldalas anyag leginkább a mesterséges intelligencia fejlődéséből fakadó potenciális kiberbiztonsági kockázatokat igyekszik minimalizálni, de szerepel benne egy a cég ellen irányuló közvetlen támadási kísérlet is.
Csak semmi személyeskedés!
Ez utóbbi mögött a gyanú szerint egy kínai banda állt, amely a vállalat több munkatársán keresztül próbált hozzáférést szerezni értékes belső adatokhoz. A személyre szabott adathalászat során a célpontok privát és céges levelezését egyaránt megcélozták az elkövetők.
A SweetSpecter néven hivatkozott csoport a preparált levelekkel a SugarGh0st RAT kártékony programot igyekezett feltelepíteni a gyanútlan munkatársak gépére. A távol elérést biztosító trójaival könnyedén lehet a fertőzött gépen többek között parancsokat futtatni, képernyőképeket menteni és általában információkat lopni.
Az OpenAI ugyanakkor "hiteles forrásból" fülest kapott az akcióról, így még azelőtt fel tudták húzni a pajzsot, hogy bármiféle támadási kísérlet történt volna. A kártékony leveleket a vállalat biztonsági rendszere blokkolta, így azok meg sem érkeztek a kiszemelt áldozatok fiókjaiba.
A cég az eset kapcsán az iparági partnerekkel való szoros együttműködést emelte ki, ami elengedhetetlen "annak érdekében, hogy a mesterséges intelligencia korában a kifinomult ellenfelek előtt maradjunk".
Próbálkoznak, próbálkozgatnak
A jelentés nagyobb része ugyanakkor az OpenAI fejlesztette modellek ártó szándékú felhasználására koncentrál. A SweetSpecterről például kiderül, hogy a kínai(nak sejtett) csoport is igyekszik tevékenységénél a cég szolgáltatásait kamatoztatni, például a potenciálisan kihasználható sebezhetőségek felkutatásánál, illetve a szkriptelés támogatásánál.
A cég természetesen igyekszik a lehető legkisebb mértékűnek beállítani a generatív MI elterjedésével járó internetes kockázatokat. A jelentés több konkrét példa bemutatása mellett arra a következtetésre jut, hogy a fenyegető szereplők ugyan változatos módokon igyekeznek kamatoztatni az OpenAI termékeit, ám ezekből a kísérletekből egyelőre nem születtek teljesen új támadási metódusok és a hatékonyság sem javult számottevően.
A ChatGPT fejlesztője egyben azt is közölte, hogy a közelmúltban világszerte több mint 20 olyan kártékony szándékú műveletet és hálózatot zavart meg, amelyek a cég modelljeit próbálták felhasználni.
Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben
A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak