A generatív mesterséges intelligencia eltorzíthatja a "társadalmi-politikai valóság vagy a tudományos konszenzus kollektív megértését”, sőt gyakran már most is pontosan ezt teszi – olvasható abban a tanulmányban, amelyt a társaság DeepMind MI-kutató laboratóriuma, a Jigsaw biztonsági agytröszt és a Google.org jótékonysági szervezet munkatársai jegyeznek. A 404 Media által szemlézett dokumentum érdekessége nyilvánvalóan az, hogy a Google az egyik legnagyobb szereplő a mesterséges intelligencia fejlesztésében, telepítésében és népszerűsítésében, ráadásul maga is hajlamos félig kész, hibás vagy felesleges termékekkel előállni ezen a területen.
A tanulmány mindenesetre bemutatja a generatív MI-eszközökkel való visszaélések különböző módozatait, ehhez pedig közel 200 olyan incidens elemzését végzi el, ami 2023 januárja és 2024 márciusa között jelent meg a médiában vagy kutatási anyagokban. A kutatók megismétlik azt az egyre gyakrabban hallható figyelmeztetést, hogy az új technológia gyors ütemben teszi tönkre a online információs teret a hibás vagy hamis tartalommal, és a felhasználók nagy többsége is arra használja ezeket a szolgáltatásokat, hogy a mesterséges intelligenciával létrehozott szövegekkel, képekkel és videókkal "elmossa a határt a hitelesség és a megtévesztés között".
A legfontosabb következtetés ezúttal is hiányzik
Ahogy írják, a valós visszaélések esetében is az "emberi hasonlatosság manipulációja" és a bizonyítékok hamisítása a legelterjedtebb taktika: ezek többsége a közvélemény befolyásolásában, átverésekben és a haszonszerzésre irányuló csalásokban nyilvánul meg. A generatív MI-rendszerek ráadásul egyre fejlettebbek, egyre könnyebben hozzáférhetők, és a használatuk sem igányel különösebb technikai szakértelmet igényelnek. A kutatók szerint ez túlterheli az embereket a hamisítványok megkülönböztetét célzó ellenőrzésekkel, az alacsony minőségű szintetikus tartalom tömeggyártása pedig szkepticizmust kelt a digitális információval szemben.
A dokumentum felidézi például azokat az eseteket, amikor "magas rangú személyek" úgy voltak képesek kimagyarázni a rájuk nézve kedvezőtlen bizonyítékokat, hogy azokat biztosan mesteséges intelligenciával generálták – ezzel pedig igen költségessé teszik a bizonyítást is, lerontva annak hatékonyságát. A kommentárok azonban felhívják rá a figyelmet, hogy a jelentést olvasva a csalás a technológia "rendeltetésszerű alkalmazásának" tűnik, hiszen az emberek arra használják az ilyen eszközöket, amire azok alkalmasak. Hogy mi másra jók még, az egyelőre nem teljesen világos, miközben a Google és más cégek is kényszeresen integrálják őket a termékeikbe.
Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében
"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak