A generatív mesterséges intelligenciával kapcsolatos félelmek között az egyik legfontosabb a választások befolyásolásának, ezen keresztül pedig a demokratikus társadalmi berendezkedés felforgatásának lehetősége, a technológia rohamos fejlődése és hozzáférhetővé válása ugyanis új lehetőségeket jelent a megtévesztő szövegek, képek vagy videók létrehozására és terjesztésére a különféle csatornákon. A Microsoft, a Google, a Meta, az Amazon és más technológiai nagyvállalatok erre reflektálva írták alá nemrég azt egyezményt (AI Elections accord), amelyben általános kötelezettségeket vállalnak a generatív MI-re épülő visszaélések megelőzésére, illetve az MI-vel létrehozott anyagok észlelését szolgáló megoldások közös fejlesztésére és bevezetésére.
A probléma azonban sokkal mélyebbnek tűnik a szándékos manipuláció elleni fellépésnél, amennyiben az MI-modellek fejlesztése abba az irányba mutat, hogy azok felváltsák a hagyományos internetes keresőket és hivatkozásokat a gyakori kérdésekre. És amíg a mesterséges intelligenci jól dokumentált megbízhatatlansága nem feltétlenül okoz katasztrófát a triviális ügyekben, addig a következmények sokkal súlyosabbnak tűnnek, ha milliókat tájékoztat majd félre arra vonatkozólag, hogy hogyan kell például regisztrálni a soron következő választásra. Márpedig az Institute for Advanced Study és a néhány napja debütált Proof News közösen kiadott jelentése szerint a legnépszerűbb MI-szolgáltatások is gyengén teljesítenek az (ebben az esetben amerikai) szavazásról szóló kérdéseket illetően.
Ez így tényleg nem néz ki jól
A tanulmány alapján egyetlen modellben sem lehet teljesen megbízni, de némelyik még a többinél is látványosan hajlamosabb a tévedésre. A kísérlet során a Gemini, a GPT-4, Llama 2, a Claude és a Mixtral modelleket tesztelték a megfelelő API-okon keresztül, a lekérdezések eredményeit pedig egy szakértői testület értékelte aszerint, hogy azok mennyire pontosak, károsak, elfogultak és teljesek: egy válasz lehet például pontos, de politikailag elfogult, vagy látszólag teljes, de pontatlan. Minden MI-modellt 26 olyan kérdéssel tettek próbára, amit egy átlagos választópolgár is feltehet neki, a válaszok értékelésébe pedig bevontak egy állami és helyi választási tisztviselőkből, választási szakértőkből és mesterségesintelligencia-tudósokból álló testületet is.
A parancsokat és a kimeneteket bemutató példákat érdemes a Proof News oldalán végigolvasni, a kutatás legfőbb megállapítása mindenesetre az volt, hogy a nagy modellek válaszainak több mint fele pontatlannak, jóval több mint egyharmada pedig károsnak vagy hiányosnak bizonyult a szakemberek többségének megítélése szerint. A Google Gemini, a Mistral Mixtral és a Meta LLama 2 volt a legkevésbé megbízható, miután válaszaik több mint 60 százaléka bizonyult hibásnak, de a leginkább megbízható OpenAI GPT-4 is 19 százalékban adott pontatlan (sőt esetenként teljesen valótlan) információt a szavazások helyével, követelményeivel vagy eljárásával kapcsolatban.
Az API-okon keresztül végzett tesztelés nem feltétlenül tükrözi azoknak a chatbot-verzióknak a teljesítményét, amelyekkel a legtöbb felhasználó találkozik, de a kísérlet a szerzők szerint így is pontosan bemutatja, hogy amit a szolgáltatók mesterséges intelligenciának hívnak, arra jobban illene a "hihetően hangzó, ellenőrizetlen találgatások" elnevezés.
Az ötlettől az értékteremtésig – az üzleti réteg szerepe az adattudományi működésben
Az adattudomány valódi értéke ott válik láthatóvá, ahol az előrejelzések döntésekké, a döntések pedig mérhető üzleti eredményekké alakulnak. Ehhez azonban tudatos üzleti beágyazásra, mérési keretrendszerekre és következetes visszacsatolásra is szükség van.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!
Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.
2026.03.10. UP Rendezvénytér
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak