A még tavaly történt incidens során lehallgathatták a cég belső kommunikációs rendszerét, de kritikus kódhoz állítólag nem jutottak hozzá a támadók.

2023 első felében támadók jutottak be az OpenAI belső üzenetküldő rendszereibe, és információkat szerezhettek a cég MI-technológiáinak tervezéséről – számolt be a The New York Times. Kódok azonban nem szivárogtak ki, mert azokhoz a rendszerekhez nem fértek hozzá, ahol például a ChatGPT által használt MI-modellek kódját tárolták. A támadók "csupán" egy olyan online fórumon folytatott megbeszéléseket hallgattak le, ahol az alkalmazottak az OpenAI legújabb fejlesztéseinek technológiai részleteit beszélték meg.

A cég vezetése végül úgy ítélte meg, hogy ez nem jelent komoly kockázatot, így nem is jelentették a hatóságoknak az incidenst. Tavaly áprilisban azonban a menedzsment mind az alkalmazottakat, mind az igazgatóságot tájékoztatták egy céges értekezleten. A vezetőség azzal indokolta, hogy nem hozzák nyilvánosságra az esetet, hogy az ügyfelekkel és partnerekkel kapcsolatos információk nem kompromittálódtak.

Az OpenAI a viszgálat után összességében arra jutott, hogy az elkövető magányos belföldi hekker volt, és maga a támadás nem jelent nemzetbiztonsági fenyegetést.

Voltak különvélemények

A támadás ténye azonban nyugtalanságot keltett a dolgozókban. Leopold Aschenbrenner, a cég egyik technikai programmenedzsere, küldött egy memót az OpenAI igazgatótanácsának, amelyben kifejtette, hogy szerinte a vállalat nem tesz meg mindent annak érdekében, hogy akár a kínai kormány, akár más külföldi szereplők ne lophassák el a cég technológiáit.

Aschenbrennert idén tavasszal aztán ki is rúgták arra hivatkozva, hogy a cégről belső információkat szivárogtatott ki. A volt alkalmazott szerint ez azért volt, mert egy podcastban utalt a jogsértésre, bár a részletekről nem mondott semmit. Csupán ott is annyit állított, hogy az OpenAI nem rendelkezik olyan biztonsági rendszerrel és protokollal, amellyel képes lenne megvédeni kulcsfontosságú titkait. A vállalat szóvivője cáfolta a volt alkalmazott állításait, és azt hangsúlyozta, nem értenek egyet a cég biztonságára vonatkozó értékelésével.

A The New York Times cikke ugyanakkor hangsúlyozza: közel sem alaptalan az OpenAI alkalmazottainak félelme, hogy a támadás mögött kínaiak állhatnak. Ez szinte minden esetben felmerül, amikor egy amerikai technológiai vállalatot kibertámadás ér. Tavaly például kínai hekkerek a Microsoft rendszerein keresztül a szövetségi kormányzati hálózatokat támadták.

Egyesek szerint az alkalmazottak szigorúbb szűrésére lenne szükség. Azt azonban mind a szövetségi, mind a kaliforniai törvények tiltják, hogy valakit a nemzetisége miatt ne alkalmazzanak. Ráadásul az OpenAI is úgy véli, hogy hátrányos lenne, ha kizárnák a legtehetségesebb külföldi kutatókat a projektjeikből (melyek között jelentős számban vannak kínaiak). Még az OpenAI biztonsági főnöke, Matt Knight is azt mondta a lapnak, hogy a legjobb és legokosabb elmékre van szükségük, ami némi kockázattal jár.

Megoszlanak a vélemények, hogy az MI extra kockázat-e

A cikk arra is felhívja a figyelmet, hogy az érintett cégek szerint kevés bizonyíték támasztja alá, hogy az MI modellek jelen állapotukban jelentős nemzetbiztonsági kockázatot jelentenének. Épp annyira kockázatos, mint például a keresőmotorok, állítják az érintett cégek. Sőt, Daniela Amodei, az Anthropic társalapítója és elnöke még azt a kijelentést is megkockáztatta, hogy az sem jelentene komoly veszélyt, ha MI-jük terveit ellopnák, vagy azokat önként megosztanák másokkal.

Gyorsan tegyük azonban hozzá: Amodei tavaly egy kongresszusi meghallgatáson még egészen mást mondott. Azt fejtegette, hogy a gyorsan fejlődő MI-rendszerek nemcsak a tudományos felfedezéseket segíthetik, hanem a bűnözőket is, akik az MI támogatásával akár két-három éven belül képesek lehetnek biofegyvereket és veszélyes vírusokat létrehozni. Vannak olyan elméletek is, hogy a fejlett MI így vagy úgy, de elpusztítja az emberiséget.

A The New York Times cikke »

Biztonság

1,75 billió dolláros értékeléssel mehet tőzsdére a SpaceX

Elon Musk űrvállalata az xAI-val kötött egyesülési megállapodása nyomán a világ legértékesebb magántulajdonban lévő cége lett, és akár 50 milliárd dollárt kaszálhat a nyilvános részvénykibocsátáson.
 
Az új technológiák alapjaiban írják át az alkalmazásbiztonság szabályait. Most hatványozottan igaz, hogy szárazon kell tartani a puskaport.

a melléklet támogatója a Clico

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.