A jelenleg hasznlát,mesterséges intelligenciára épülő asszisztensek alkalmazásával a szoftverfejlesztők azt kockáztatják, hogy több hibával, kevésbé biztonságos módon és jogilag is potenciálisan támadhatóan állítják elő az új kódokat – olvasható a Stanford Egyetem informatikusainak tanulmányában. A "Do Users Write More Insecure Code with AI Assistant?" című kutatásukban azt vizsgálták, hogy a programozók hogyan használják az ilyen célú MI-segédeket, például a népszerű, de máris vitatott GitHub Copilot szolgáltatást.
Az anyagot szemléző AI News szerint a vizsgálatokból kiderült, hogy az asszisztenshez hozzáféréssel rendelkező fejlesztők átlagosan több biztonsági rést hagytak nyitva a munkájukban, mint a hozzáféréssel nem rendelkezők, ami különösen látványos volt a szöveges állományok titkosítását vagy az SQL-befecskendezéses támadásokkal szembeni sebezhetőséget tekintve. A dolog azért is érdekes, mert a kutatás kimutatta, hogy az MI-asszisztenseket használó fejlesztők túlértékelik az így létrehozott kódok minőségét.
Elsőre nem nyilvánvaló buktatók
"Megállapítottuk, hogy azok a résztvevők, akiknek hozzáférést biztosítottak egy MI-asszisztenshez, nagyobb valószínűséggel hitték el, hogy biztonságos kódot írtak, mint azok, akik nem kaptak hozzáférést" – olvasható a jelentésben, melynek elkészítése során több tucat programozót kértek fel a kódok létrehozására, részben az MI-eszközökre támaszkodva, részben pedig anélkül. Az egyik feladat például az volt, hogy oldják meg a Python nyelv alatt karakterláncok titkosításátés visszafejtését egy adott szimmetrikus kulccsal.
Ezt segtség nélkül 79 százalékuk oldotta meg hiba nélkül, míg a mesterséges intelligenciára támaszkodók eredménye 67 százalékos volt. A támogatott csoport "jelentősen nagyobb valószínűséggel" nyújtott bizonytalan megoldásokat a Welch-féle t-próba alapján, nagyobb valószínűséggel használt triviális titkosító algoritmusokat, vagy akár kihagyta az autentikációt a végső visszaadott értékeknél. Az AI News a kutatás egyik résztvevőjét is idézi, aki szerint az MI ugyanolyan jó támogatást nyújt, mint a fejlesztői közösségek, de soha nem nevezi hülyeségnek a kérdéseit.
A cikk egyébként felhívja a figyelmet az MI-asszisztensek egy járulékos problémájára is annak kapcsán, hogy a múlt hónapban az OpenAI és a Microsoft egy pert kapott a nyakába a szóban forgó GitHub Copilot miatt. Ezt ugyanis mások által készített nyilvános kódsorok milliárdjainak feldolgozásával tanítják, de forrásmegjelölés vagy a szerzői jogok egyéb elismerése nélkül. Az ilyen megfelelőséget lényegében a felhasználóra hagyják, akik akaratlanul is egyre nagyobb eséllyel válnak perelhetővé, ahogy az MI-alkalmazás fejlődik.
Arról, hogy a művészek is hasonló okokból lázadoznak a generatív mesterséges intelligencia ellen, ebben a cikkünkben számoltunk be.
Acronis webinárium az AI-vezérelt kibertámadások kivédéséről
Csatlakozzon 2023. szeptember 26-án az Acronis és a RelNet Technológia Kft. közös szervezésű, exkluzív webináriumához, melynek témája a mesterséges intelligencia által vezérelt kibertámadások hatásainak kezelése lesz.
Jön a Clico formabontó cloud meetupja, ahol eloszlatják a viharfelhőket
Merre mennek a bitek a felhőben, ledobja-e szemellenzőjét az IT-biztonságért felelős kolléga, ha felhőt lát, lesz-e két év múlva fejlesztés cloud nélkül? A Clico novemberben fesztelen szakmázásra hívja a szoftverfejlesztőket a müncheni sörkertek vibrálását idéző KEG sörművházba.
Kilátások az Dunától keletre – állás Gyöngyös városában
A munkalehetőségek terén az ország különböző régiói meglehetősen eltérő lehetőségeket kínálnak, mind mennyiségben, mind minőségben. Ebből a szempontból a legtöbb szó a Dunától keletre lévő területekről esik, ám természetesen itt is találhatók kedvező állás opciók.
Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész