Az átláthatóság és a szoftverbiztonság eddigi tanulságainak alkalmazása egyre nagyobb jelentőséget kap az MI-rendszerekben, ami egyre látványosabb vitát generál a nyitottság tényleges jelentéséről a mesterséges intelligencia fejlesztésében is. Ahogy az AI News hétfői összeállításából kiderül, a meghatározások egyelőre igen képlékenyek, mivel a modellek számos összetevőből építkeznek: a képzéshez használt adatkészletek, a súlyok, a tanításhoz és teszteléshez használt programok és más tényezők teljes láncának nyílt forrásúnak kellene lennie, hogy magukat a modelleket is nyitottnak nevezhessük, de a fontos piaci szereplők között még nincs összhang ezekben az értelmezésekben.
A cikkben az Endor Labs nyílt forrású biztonsági szolgáltató egyik vezetője felhívja a figyelmet az úgynevezett open washing (kb. nyílttá mázolás) veszélyére. Ez hasonlóan működik például a green washing (zöldre festés) jelenséghez, melynek során marketing- és PR-eszközökkel olyan képet igyekeznek kialakítani a vállalatokról, mintha azok a valóságosnál sokkal többet tennének a környezet védelméért. Maga az open washing a nyílt forrású szoftvereknél is működik, ahol az iparági szereplők átláthatóságról beszélnek, miközben lényeges korlátozásokat alkalmaznak: gondoljunk mondjuk a felhőszolgáltatóknál a nyílt forrású megoldások hozzájárulás nélkül kínált, fizetős verzióira.
A biztonságnak is feltétele az átláthatóság
Az AI News szerint a mesterséges intelligenciával kapcsolatban is hasonló úton járnak az állítólagos nyílt LLM-szolgáltatók, akik a megnyitott forráskódok mellé számos kereskedelmi korlátozást vezetnek be, hogy ezeken keresztül őrizzék versenyelőnyüket. Ellenpéldának az MI-ipar feltörekvő (bár a többieknél nem kevésbé ellentmondásos) szereplőjét, a kínai DeepSeeket hozzák fel, ami másoknál nagyobb átláthatóságot és nyilvános ütemtervet is biztosít hosztolt szolgáltatásait illetően, betekintést nyújtva abba, ahogy finomhangolják és üzemeltetik ezeket a modelleket. Ezzel másoknak is megkönnyítik a rendszerek biztonsági kockázatainak vizsgálatát és a DeepSeek saját verziójának éles futtatását.
A szakértő úgy látja, hogy a DeepSeek átláthatósági kezdeményezései igazodnak a nyílt forrású MI irányába mutató tágabb trendhez. Az IDC adatai alapján a szervezetek 60 százaléka már az ilyen modelleket választja a kereskedelmi alternatívák helyett a generatív MI-projektekhez, az Endor Labs pedig azt tapasztalja, hogy a szervezetek alkalmazásonként átlagosan 7-21 nyílt forrású modellt is felhasználnak. Utóbbiak elterjedése ugyanakkor még szükségessebbé teszi a függőségek értékelését is, ami nemcsak törvényességi megfelelést jelent, hanem (a nyílt forráskódú könyvtárakhoz hasonlóan) a működési kockázatok és az ellátási lánc biztonsági kockázatainak feltárását is egészen a képzési adatoktól kezdve.
A kockázatkezelés szisztematikus megközeltéséről további részletek olvashatók az AI News oldalán »
Dynatrace: a modern obszervabilitás pole pozíciójában
Akár a Formula-1-es boxutcában, akár az üzleti életben dolgozunk, egy apró hiba könnyen vészhelyzetet idézhet elő. Szerencsére erre van megoldás, ugyanis a Dynatrace és a hasonló obszervabilitási platformok éppen azért jöttek létre, hogy megelőzzék ezeket a kritikus szituációkat.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT A PROJEKTMENEDZSMENTRŐL TUDNI KELL!
Ütős esettanulmányok AI-ról, agilitásról, hibrid működésről, elosztott csapatokról, kulturális gapek kezeléséről. Exkluzív információk képzésekről, munkaerőpiacról, kereseti és karrierlehetőségekről.
2025.03.18. Symbol Budapest
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak