A generatív mesterséges intelligenciával kapcsolatos félelmek között az egyik legfontosabb a választások befolyásolásának, ezen keresztül pedig a demokratikus társadalmi berendezkedés felforgatásának lehetősége, a technológia rohamos fejlődése és hozzáférhetővé válása ugyanis új lehetőségeket jelent a megtévesztő szövegek, képek vagy videók létrehozására és terjesztésére a különféle csatornákon. A Microsoft, a Google, a Meta, az Amazon és más technológiai nagyvállalatok erre reflektálva írták alá nemrég azt egyezményt (AI Elections accord), amelyben általános kötelezettségeket vállalnak a generatív MI-re épülő visszaélések megelőzésére, illetve az MI-vel létrehozott anyagok észlelését szolgáló megoldások közös fejlesztésére és bevezetésére.
A probléma azonban sokkal mélyebbnek tűnik a szándékos manipuláció elleni fellépésnél, amennyiben az MI-modellek fejlesztése abba az irányba mutat, hogy azok felváltsák a hagyományos internetes keresőket és hivatkozásokat a gyakori kérdésekre. És amíg a mesterséges intelligenci jól dokumentált megbízhatatlansága nem feltétlenül okoz katasztrófát a triviális ügyekben, addig a következmények sokkal súlyosabbnak tűnnek, ha milliókat tájékoztat majd félre arra vonatkozólag, hogy hogyan kell például regisztrálni a soron következő választásra. Márpedig az Institute for Advanced Study és a néhány napja debütált Proof News közösen kiadott jelentése szerint a legnépszerűbb MI-szolgáltatások is gyengén teljesítenek az (ebben az esetben amerikai) szavazásról szóló kérdéseket illetően.
Ez így tényleg nem néz ki jól
A tanulmány alapján egyetlen modellben sem lehet teljesen megbízni, de némelyik még a többinél is látványosan hajlamosabb a tévedésre. A kísérlet során a Gemini, a GPT-4, Llama 2, a Claude és a Mixtral modelleket tesztelték a megfelelő API-okon keresztül, a lekérdezések eredményeit pedig egy szakértői testület értékelte aszerint, hogy azok mennyire pontosak, károsak, elfogultak és teljesek: egy válasz lehet például pontos, de politikailag elfogult, vagy látszólag teljes, de pontatlan. Minden MI-modellt 26 olyan kérdéssel tettek próbára, amit egy átlagos választópolgár is feltehet neki, a válaszok értékelésébe pedig bevontak egy állami és helyi választási tisztviselőkből, választási szakértőkből és mesterségesintelligencia-tudósokból álló testületet is.
A parancsokat és a kimeneteket bemutató példákat érdemes a Proof News oldalán végigolvasni, a kutatás legfőbb megállapítása mindenesetre az volt, hogy a nagy modellek válaszainak több mint fele pontatlannak, jóval több mint egyharmada pedig károsnak vagy hiányosnak bizonyult a szakemberek többségének megítélése szerint. A Google Gemini, a Mistral Mixtral és a Meta LLama 2 volt a legkevésbé megbízható, miután válaszaik több mint 60 százaléka bizonyult hibásnak, de a leginkább megbízható OpenAI GPT-4 is 19 százalékban adott pontatlan (sőt esetenként teljesen valótlan) információt a szavazások helyével, követelményeivel vagy eljárásával kapcsolatban.
Az API-okon keresztül végzett tesztelés nem feltétlenül tükrözi azoknak a chatbot-verzióknak a teljesítményét, amelyekkel a legtöbb felhasználó találkozik, de a kísérlet a szerzők szerint így is pontosan bemutatja, hogy amit a szolgáltatók mesterséges intelligenciának hívnak, arra jobban illene a "hihetően hangzó, ellenőrizetlen találgatások" elnevezés.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak