A világ egyik legfejlettebb MI-laborja szerint az ázsiai versenytársak proxy hálózatokon keresztül szervezetten, nagy intenzitással szipkázzák ki a Claude modellekben rejlő képességeket.
Hirdetés
 

Súlyos és konkrét vádakkal illette három kínai vetélytársát a Claude nagy nyelvi modell mögött álló Anthropic. Az amerikai MI-fejlesztő szerint a technológiája ellopására irányuló kampányoknak annyira komoly következményei lehetnek, hogy az ellen széles körű összefogásra van szükség, amelyben többek között az iparági szereplők és a politkai döntéshozók is szerepet kell vállaljanak.

Desztillált vádak

A tegnap megjelentetett blogbejegyzés szerint a DeepSeek, a Moonshot AI és a MiniMax a modellek tanítására, áramvonalasítására alkalmazott, egyébként házon belül az Anthropic által is használt technikára, az úgynevezett desztillációra alapozva igyekeznek a lehető legtöbb dolgot lemásolni a Claude képességeiből.

A desztilláció nagyon leegyszerűsítve egy olyan mélytanulási módszer, amelynek során egy nagyobb modell "tanárként" funkcionál, a kisebb "tanuló" modell pedig a másik kimeneteit, viselkedési mintázatát vizsgálva gyorsan magába tudja szívni a terjedelmesebb kolléga arzenálját. Ha mindezt jól csinálják, a végeredmény egy olyan modell lesz, amelynek mind a betanítása, mind a későbbi működtetése lényegesen kisebb erőforrást igényel, miközben a teljesítménye szinte megegyezik a tanárként használt komplex modellével.

Mindez azonban kiválóan alkalmas egymás modelljeinek másolására is. Ezért a Kínában egyébként nem használható Claude modelleket nagy kiterjedésű proxy hálózatokon keresztül "kérdezgetik" a fentebb említett trió szakembereoi. Az Anthropic szerint ezek a szereplők mintegy 24 ezer szabálytalanul működő fiókon keresztül több mint 16 milliószor léptek interakcióba az amerikai vállalat különböző modelljeivel.

Nagy az aggodalom

A fentiek természetesen nem egyeztethetők össze a Claude felhasználási feltételeivel, de az Anthropic írása nem erre, sokkal inkább a technológialopásban rejlő általánosabb veszélyek kihangsúlyozására fókuszál. A cégnél aggódnak, hogy egyrészt ez oda vezet, hogy Kína relatíve gyorsan felzárkózik az Egyesült Államok mögé a témában, másrészt pedig olyan eszközökhöz jutnak autoriter rezsimek és potenciálisan más kártékony csoportok, ami közvetlen nemzetbiztonsági kockázatokat rejt az USA, illetve általában a nyugati világ számára.

A vállalat szerint az illegálisan lemásolt modellek valószínűsíthetően nem rendelkeznek azokkal a biztonsági korlátokkal, amelyek az amerikai modellek esetében megakadályozni hivatottak például "biológiai fegyverek fejlesztését, kibertámadások végrehajtását vagy a tömeges megfigyelést". (Itt azért érdemes felidézni, hogy például az Elon Musk cége által fejlesztett Grok is rendszeresen leveri a biztonsági lécet.)

Az Anthropic ezzel egyébként nagyjából ugyanazt ismételte el, mint amiről legföbb hazai veresenytársa két héttel ezelőtt kommunikált. Az OpenAI amerikai tövényhozóknak címzett levele [PDF] többek között arra figyelmeztetett, hogy Peking, illetve kisebb mérékben Moszkva is érezhetően fokozta erőfeszítéseit, amelyek a fejlett amerikai modellek feltérképezésére, megszerzésére irányulnak. A feljegyzésben ugyancsak felbukkan a DeepSeek neve, amelynek modelljei "nem rendelkeznek érdemi védelemmel" a veszélyes kimenetelek ellen olyan kockázatos területeken, mint a kémiai és biológiai kérdések, továbbá "csak korlátozott védelmet nyújtanak a szerzői jogokkal védett anyagok számára".

Utóbbi annyiban mindenképpen pikáns, hogy az utóbbi években mind az OpenAI, mind az Anthropic ellen több tucat komoly téttel bíró jogi eljárás indult, mivel a vádak szerint modelljeiket engedély nélkül trenírozták különböző jogvédett tartalmakon. A felperesek között találhatunk például könyvkiadókat, médiavállalatokat, zenészeket, de olyan nagy internetes platformokat is, mint amilyen a Reddit.

(az illusztrációt a cikkhez a Claude készítette)

Cloud & big data

Az emberek nevelésénél gazdaságosabb az MI tanítása az OpenAI vezére szerint

Megnyugtató, hogy igazi humanisták próbálják lezavarni a következő technológiai forradalmat.
 
Hirdetés

Produktivitás mint stratégiai előny: mit csinálnak másként a sikeres cégek?

A META-INF által szervezett Productivity Day 2026 idén a mesterséges intelligencia és a vállalati produktivitás kapcsolatát helyezi fókuszba. Az esemény középpontjában a META-INF nagyszabású produktivitási kutatásának bemutatása áll, amely átfogó képet nyújt a magyar vállalatok hatékonyságáról és működési kihívásairól.

Vezetői példamutatás és megfelelő oktatás, vállalatikultúra-váltás nélkül gyakorlatilag lehetetlen adatvezérelt működést bevezetni. Cikkünk nemcsak a buktatókról, hanem azok elkerülésének módjairól is szól.

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.