2023 első felében támadók jutottak be az OpenAI belső üzenetküldő rendszereibe, és információkat szerezhettek a cég MI-technológiáinak tervezéséről – számolt be a The New York Times. Kódok azonban nem szivárogtak ki, mert azokhoz a rendszerekhez nem fértek hozzá, ahol például a ChatGPT által használt MI-modellek kódját tárolták. A támadók "csupán" egy olyan online fórumon folytatott megbeszéléseket hallgattak le, ahol az alkalmazottak az OpenAI legújabb fejlesztéseinek technológiai részleteit beszélték meg.
A cég vezetése végül úgy ítélte meg, hogy ez nem jelent komoly kockázatot, így nem is jelentették a hatóságoknak az incidenst. Tavaly áprilisban azonban a menedzsment mind az alkalmazottakat, mind az igazgatóságot tájékoztatták egy céges értekezleten. A vezetőség azzal indokolta, hogy nem hozzák nyilvánosságra az esetet, hogy az ügyfelekkel és partnerekkel kapcsolatos információk nem kompromittálódtak.
Az OpenAI a viszgálat után összességében arra jutott, hogy az elkövető magányos belföldi hekker volt, és maga a támadás nem jelent nemzetbiztonsági fenyegetést.
Voltak különvélemények
A támadás ténye azonban nyugtalanságot keltett a dolgozókban. Leopold Aschenbrenner, a cég egyik technikai programmenedzsere, küldött egy memót az OpenAI igazgatótanácsának, amelyben kifejtette, hogy szerinte a vállalat nem tesz meg mindent annak érdekében, hogy akár a kínai kormány, akár más külföldi szereplők ne lophassák el a cég technológiáit.
Aschenbrennert idén tavasszal aztán ki is rúgták arra hivatkozva, hogy a cégről belső információkat szivárogtatott ki. A volt alkalmazott szerint ez azért volt, mert egy podcastban utalt a jogsértésre, bár a részletekről nem mondott semmit. Csupán ott is annyit állított, hogy az OpenAI nem rendelkezik olyan biztonsági rendszerrel és protokollal, amellyel képes lenne megvédeni kulcsfontosságú titkait. A vállalat szóvivője cáfolta a volt alkalmazott állításait, és azt hangsúlyozta, nem értenek egyet a cég biztonságára vonatkozó értékelésével.
A The New York Times cikke ugyanakkor hangsúlyozza: közel sem alaptalan az OpenAI alkalmazottainak félelme, hogy a támadás mögött kínaiak állhatnak. Ez szinte minden esetben felmerül, amikor egy amerikai technológiai vállalatot kibertámadás ér. Tavaly például kínai hekkerek a Microsoft rendszerein keresztül a szövetségi kormányzati hálózatokat támadták.
Egyesek szerint az alkalmazottak szigorúbb szűrésére lenne szükség. Azt azonban mind a szövetségi, mind a kaliforniai törvények tiltják, hogy valakit a nemzetisége miatt ne alkalmazzanak. Ráadásul az OpenAI is úgy véli, hogy hátrányos lenne, ha kizárnák a legtehetségesebb külföldi kutatókat a projektjeikből (melyek között jelentős számban vannak kínaiak). Még az OpenAI biztonsági főnöke, Matt Knight is azt mondta a lapnak, hogy a legjobb és legokosabb elmékre van szükségük, ami némi kockázattal jár.
Megoszlanak a vélemények, hogy az MI extra kockázat-e
A cikk arra is felhívja a figyelmet, hogy az érintett cégek szerint kevés bizonyíték támasztja alá, hogy az MI modellek jelen állapotukban jelentős nemzetbiztonsági kockázatot jelentenének. Épp annyira kockázatos, mint például a keresőmotorok, állítják az érintett cégek. Sőt, Daniela Amodei, az Anthropic társalapítója és elnöke még azt a kijelentést is megkockáztatta, hogy az sem jelentene komoly veszélyt, ha MI-jük terveit ellopnák, vagy azokat önként megosztanák másokkal.
Gyorsan tegyük azonban hozzá: Amodei tavaly egy kongresszusi meghallgatáson még egészen mást mondott. Azt fejtegette, hogy a gyorsan fejlődő MI-rendszerek nemcsak a tudományos felfedezéseket segíthetik, hanem a bűnözőket is, akik az MI támogatásával akár két-három éven belül képesek lehetnek biofegyvereket és veszélyes vírusokat létrehozni. Vannak olyan elméletek is, hogy a fejlett MI így vagy úgy, de elpusztítja az emberiséget.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak