A Colab a Google Research terméke, amely az MI-kutatóktól az adattudósokon át a diákokig mindenki számára lehetővé teszi, hogy külön alkalmazások telepítése nélkül, a böngészőjükben írjanak és futtassanak kódokat a Python programozási nyelven. Maga a Python már a legnépszerűbb nyelvek közé tartozik, ami nagyban köszönhető a mesterséges intelligencia és adattudomány felfutásának, a Colab pedig már ingyenesen is hozzáférhető, mindössze egy Google-fiókot igénylő szolgáltatással biztosít lehetőséget a máskülönben nagy számítási teljesítményt igénylő programok kipróbálására, a projektek megosztására és különféle, például oktatási célú felhasználásaira.
Az AI News nemrég szúrta ki, hogy a Google különösebb hírverés nélkül a deepfake (mélyhamisítás) előállítását is felvette arra a listájára, amelyben meghatározza a Colab szolgáltatásban nem engedélyezett runtime-okat. Ezzel az átlagos emberi érzékszerveknek hitelesnek tűnő videók vagy hanganyagok MI-alapú előállítása is az olyan dolgok közé került, mint a denial-of-service támadások futtatása, a jelszófeltörés, a kriptovaluta-bányászat vagy a fájljosztolás – vagyis minden olyasmi, ami vagy simán illegális, vagy egyszerűen csak nem a Colab rendeltetésszerű használatáról szól.
A deepfake ettől még nem válik köddé
Tény, hogy a deepfake technológiáknak gyakori és kézenfekvő a rosszhiszemű felhasználása, legyen szó szexuális tartalom generálásáról, csalásokról vagy a dezinformációs kampányokat támogató, megtévesztő tartalom létrehozásáról. Nyilván ez állhat a Google döntésének is a hátterében, ami azonban a megszokott módon vitatható: a tiltás önmagában még nem akadályoz meg senkit az ilyen fejlesztésekben, ezzel szemben szűkíti a mozgásterét mindazoknak, akik éppen hogy a mélyhamisítások elleni eszközök kifejlesztésére tesznek erőfeszítéseket.
Ahogy a lap is írja, ilyen eszközökre márpedig egyre nagyobb szükség lesz, legyen szó az ukrajnai háborúban bevezett, szerencsére elég béna ál-Zelenszkij videóról vagy a sikeres pénzügyi átverésekről. Ezekhez képest szinte részletkérdés, hogy a deepfake-nek nem is feltétlenül csak rosszindulatú alkalmazásai vannak: felhasználható a zenében, a különféle aktivista programokban, a szatirikus alkotásokban, sőt már olyan esetről is olvashattunk, amikor a rendőrség próbálja támogatni a mélyhamisítást segítségül hívva egy bűncselekmények felderítését.
Exkluzív szakmai nap a felhők fölött: KYOCERA Roadshow a MOL Toronyban
A jövő irodája már nem a jövő – hanem a jelen. A digitális transzformáció új korszakába lépünk, és ebben a KYOCERA nemcsak követi, hanem formálja is az irányt. Most itt a lehetőség, hogy első kézből ismerje meg a legújabb hardveres és szoftveres fejlesztéseket, amelyekkel a KYOCERA új szintre emeli a dokumentumkezelést és az üzleti hatékonyságot.
CIO KUTATÁS
AZ IRÁNYÍTÁS VISSZASZERZÉSE
Valóban egyre nagyobb lehet az IT és az IT-vezető súlya a vállalatokon belül? A nemzetközi mérések szerint igen, de mi a helyzet Magyarországon?
Segítsen megtalálni a választ! Töltse ki a Budapesti Corvinus Egyetem és a Bitport anonim kutatását, és kérje meg erre üzleti oldalon dolgozó vezetőtársait is!
Az eredményeket május 8-9-én ismertetjük a 16. CIO Hungary konferencián.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak