A generatív mesterséges intelligencia körül hirtelen feltámadó érdeklődést természetesen igyekszik az internet alvilága is kihasználni.

Közel 10 ezer felhasználó telepített egy olyan Chrome-hoz kínált bővítményt, amely az OpenAI fejlesztette nyelvi modell, a ChatGPT képességeit ígérte integrálni a böngészővel. A gond ezzel csak az volt, hogy a plugin valójában a felhasználó adataira utazott, egészen pontosan a facebookos munkameneteket rögzítő sütikre.

A csalás kiszúrását nehezítette, hogy a rosszindulatú program nevében és funkcionalitásában is szinte teljesen megegyezett egy legitim alkalmazással. A ChatGPT for Gooogle bővítményhez képest az imposztor Chat GPT For Google elnevezéssel futott, azaz egyetlen szóköz volt az árulkodó jel. A nyílt forráskódú eredeti program sorait pedig nemes egyszerűséggel átvették a bűnözők, és azt csak néhány utasítással egészítették ki. Utóbbi gondoskodott a bővítmény illegális tevékenységéről.

Az adathalász kísérletet, ami egyébként egy korábbi változat újragondolása, a Guardio Labs kutatói szúrták ki. A biztonsági cég szakemberei szerint az elkövetők szponzorált keresési találatok vásárlásával terelték áldozataikat az általuk preparált bővítmény oldalára. Ez egyben garantálta, hogy olyan netező elé kerül a kártékony kódjuk, aki egyébként érdeklődik a ChatGPT iránt.

A malware egyetlen rossz dolgot tesz: kiszűri a Facebookkal kapcsolatos sütiket a Chrome Extension API-n keresztül megszerzett teljes listából. Ezekkel azonban könnyedén átvehető az irányítás egy fiók felett. A bejelentkezési adatok megváltoztatásával kizárható a tulajdonos, hogy aztán a megszerzett csatornát hirdetések spamelésére, vagy akár szélsőséges propaganda terjesztésére használják.

Kínos ügy

Miután a biztonsági kutatók értesítették felfedezésükről a Google-t, a keresőóriás példás gyorsasággal eltűntette alkalmazásboltjából a rosszindulatú programot. Az ugyanakkor egyáltalán nem dícséretes, hogy a csalók első körben gond nélkül megkapták a keresőóriás engedélyét bővítményük terjesztésére.

Az biztos, hogy mind a nagy technológiai platformokat üzemeltető vállalatok, mind a felhasználók részéről érdemes fokozott óvatosságot tanúsítani bármivel kapcsolatban, aminek köze van a ChatGPT-hez (vagy valamelyik riválisához). A generatív mesterséges intelligenciában rejlő lehetőségek annyira érdeklik az embereket, hogy azt a bűnözők is igyekeznek maximálisan kihasználni. Mindez persze nem újdonság, hasonló történt a koronavírus kirobbanásakor, illetve a Törökországban és Szíriában bekövetkezett természeti katasztrófát követően is.

Biztonság

A Snapchat alapítójának húga lenne a telefonszex Gattyánja

Már annyira a mainstream része az erotikus tartalmakat kínáló Quinn, hogy alapítóját, Caroline Spiegelt a finnek híres stratuprendezvényére, a Slush-ra is meghívták.
 
Ez a kkv-k problémája világszerte. A megoldásszállítók pedig rendszer a széttagoltságra, a sok egyedi igényre, és az ebből eredő magas fejlesztési és támogatási költségekre panaszkodnak.

a melléklet támogatója a Yettel

Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.