Az OpenAI még januárban adott ki közleményt azokról az intézkedésekről, amelyekkel hozzájárult volna a 2024-ben világszerte rendezett választásokkal kapcsolatos visszaélések megakadályozásához, a mesterséges intelligeciával generált tartalom átláthatóbbá tételéhez és szavazásokat érintő pontos információ hozzáférhetőségének biztosításához. Ezek között a cég vállalta, hogy megtiltja eszközei használatát a politikai kampányt és lobbitevékenységet támogató alkalmazásokban, a valódi személyeket (mondjuk a jelölteket) vagy intézményeket megszemélyesítő chatbotokban, illetve minden olyan megoldásban, amelynek célja az emberek elriasztása a demokratikus folyamatokban való részvételtől.
Az akkori bejelentéshez később több kiegészítést is közöltek az időközben tető alá hozott együttműködésekről, legutóbb pedig már az amerikai elnökválasztást követően tettek közzé néhány statisztikát. Ezekből kiderült, hogy a ChatGPT állítólag több mint 250 ezer olyan parancsot utasított vissza a szavazást megelőző egy hónapban, ami konkrétan az jelöltekről próbált valamilyen mélyhamisított (deepfake) felvételt legyártatni az OpenAI Dall-E képgenerátorával. Minderre ráadásul a "beavatkozások minimalizálására irányuló szélesebb körű erőfeszítés" részeként hivatkoznak, vagyis feltételezhető, hogy másféle próbálkozások is szép számmal akadtak az MI véleményes felhasználásra.
Legalább a probléma már nyilvánvaló
A 250 ezres szám egyébként Joe Biden amerikai elnökre, az utóbb megválasztott Donald Trumpra, Kamala Harris alelnökre és elnökjelöltre, illetve kettejük alelnökjelöltjeire vonatkozik, tehát még a "képes" vonalat sem fedi le teljes egészében. Az OpenAI a választás kapcsán különösen fontosnak nevezte azokat a védőkorlátokat, amelyekkel akadályozni próbálja eszközeinek megtévesztő vagy káros alkalmazását. A deepfake elleni fellépés egyébkánt általános figyelmet kapott az utóbbi hónapokban: a YouTube például szeptemberben közölte, hogy több olyan megoldáson is dolgozik, ami segítene az alkotóknak felkutatni a hangjukról vagy arcukról engedély nélkül készített hamisítványokat.
Ez a figyelem a törvényhozók részéről is megnyilvánult: Gavin Newsom kaliforniai kormányzó három állami törvényt is aláírt a mélyhamisítások közösségi megosztásairól, kriminalizálva a választások befolyásolására szolgáló MI-alapú tartalmak szándékos terjesztését. A beszámolók ugyanakkor az OpenAI-ról szólva arra is emlékeztetnek, hogy a vállalattól egymás után távoznak az mesterséges intelligencia biztonságáért felelős vezetők és szakemberek. Legutóbb október végén számoltunk be az "AGI Readiness" csapat felszámolásáról, amelynek feladata az OpenAI képességének és általában a külvilág felkészültségének javítása volt az egyre fejlettebb MI-modellek kezelésében.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak