A generatív mesterséges intelligencia eltorzíthatja a "társadalmi-politikai valóság vagy a tudományos konszenzus kollektív megértését”, sőt gyakran már most is pontosan ezt teszi – olvasható abban a tanulmányban, amelyt a társaság DeepMind MI-kutató laboratóriuma, a Jigsaw biztonsági agytröszt és a Google.org jótékonysági szervezet munkatársai jegyeznek. A 404 Media által szemlézett dokumentum érdekessége nyilvánvalóan az, hogy a Google az egyik legnagyobb szereplő a mesterséges intelligencia fejlesztésében, telepítésében és népszerűsítésében, ráadásul maga is hajlamos félig kész, hibás vagy felesleges termékekkel előállni ezen a területen.
A tanulmány mindenesetre bemutatja a generatív MI-eszközökkel való visszaélések különböző módozatait, ehhez pedig közel 200 olyan incidens elemzését végzi el, ami 2023 januárja és 2024 márciusa között jelent meg a médiában vagy kutatási anyagokban. A kutatók megismétlik azt az egyre gyakrabban hallható figyelmeztetést, hogy az új technológia gyors ütemben teszi tönkre a online információs teret a hibás vagy hamis tartalommal, és a felhasználók nagy többsége is arra használja ezeket a szolgáltatásokat, hogy a mesterséges intelligenciával létrehozott szövegekkel, képekkel és videókkal "elmossa a határt a hitelesség és a megtévesztés között".
A legfontosabb következtetés ezúttal is hiányzik
Ahogy írják, a valós visszaélések esetében is az "emberi hasonlatosság manipulációja" és a bizonyítékok hamisítása a legelterjedtebb taktika: ezek többsége a közvélemény befolyásolásában, átverésekben és a haszonszerzésre irányuló csalásokban nyilvánul meg. A generatív MI-rendszerek ráadásul egyre fejlettebbek, egyre könnyebben hozzáférhetők, és a használatuk sem igányel különösebb technikai szakértelmet igényelnek. A kutatók szerint ez túlterheli az embereket a hamisítványok megkülönböztetét célzó ellenőrzésekkel, az alacsony minőségű szintetikus tartalom tömeggyártása pedig szkepticizmust kelt a digitális információval szemben.
A dokumentum felidézi például azokat az eseteket, amikor "magas rangú személyek" úgy voltak képesek kimagyarázni a rájuk nézve kedvezőtlen bizonyítékokat, hogy azokat biztosan mesteséges intelligenciával generálták – ezzel pedig igen költségessé teszik a bizonyítást is, lerontva annak hatékonyságát. A kommentárok azonban felhívják rá a figyelmet, hogy a jelentést olvasva a csalás a technológia "rendeltetésszerű alkalmazásának" tűnik, hiszen az emberek arra használják az ilyen eszközöket, amire azok alkalmasak. Hogy mi másra jók még, az egyelőre nem teljesen világos, miközben a Google és más cégek is kényszeresen integrálják őket a termékeikbe.
Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben
A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak