A pesszimista jövőképek azt vetítik előre, hogy az internetet belátható időn belül maga alá temetheti a mesterséges intelligencia által generált hamis információ. Ennek egyik fő oka pedig az lenne, hogy az MI-rendszerek félreértelmezett, hallucinált vagy szándékosan összezavart dolgokat szórnak egymásra egészen addig, amíg az információs tér szilánkosra törik, majd praktikusan meg is semmisül. És ettől a végkifejlettől akármilyen messze vagyunk, már most is ízelítőt kaphatunk belőle, hogy a big tech szolgáltatók ész nélkül kiadott MI-chatbotjai milyen módon rombolják a webes ökoszisztémát.
A The Verge a múlt kedden számolt be egy érdekes jelenségről: a dolgok akkori állása szerint a Microsoft Bing chatbotja arra a kérdésre, hogy leállították-e a Google Bard chatbotját, igennel válaszolt. Ehhez bizonyítékként egy Twitter-üzenetről szóló cikkét hozott fel, amelyben egy felhasználó az indulását követő napon megkérdezte Bardtól, mikor fogják leállítani. A Google robotja közölte, hogy ez már meg is történt – esetében a Hacker News egyik kommentjére hivatkozva, ahol valaki egy ilyen lehetőséggel viccelődött, mások aztán a ChatGPT segítségével megírták az eseményről szóló álhírt is.
A "dolgok akkori állása" kitétel azért lényeges, mert a Bing időközben megváltoztatta a válaszát – ez a The Verge szerint örömteli, amennyiben a rendszer gyorsan javítható, másrészt ijesztő, mert annyira képlékeny, hogy még a hibáiról sem lehet konzisztens módon beszámolni. A lényeg azonban annak a jelenségnek egy korai megnyilvánulása, amelynek értelmében a chatbotok képtelenek felmérni a megbízható hírforrásokat, és akár a saját magukról szóló forrásokat is képesek félreérteni. A mostani ügy persze egy viccből indult ki, de felmerül a kérdés, hogy mi történne, ha valaki direkt akarna előidézni hasonló hibákat.
A nagy lehetőségek küszöbén kit érdekel a biztonság
Ahogy tavaly novemberben a KataGo kapcsán kiderült, a legokosabb MI is meglepően ostoba tud lenni, ha rájátszanak a gyengeségeire. Abban az esetben az emberi képességeket meghaladó góprogramot sikerült legyőzni egy direkt erre felkészített rendszerrel, amelynek máskülönben semmi esélyesem lenne a közepes emberi játékosok ellen. Tanulság, hogy az emberek szintjén teljesítő MI-modellek valójában nagyon idegen módon érik el ugyanazt az eredményt, így a meghibásodásaik is meglepőek lehetnek, ami a kritikus jelentőségű MI-rendszerek esetében kicsit sem lesz szórakoztató.
Sok szempontból a nyelvi MI-modellek is ilyen kritikus jelentőségű rendszernek tekinthetők, mert ha nem képesek megbízhatóan elválasztani a tényeket a fikciótól, akkor online megjelenésük a teljes internetes információs teret degradálja – ráadásul olyan módon, amit utólag nem is lehet teljesen feltérképezni. Már pontosan látszik, hogy az emberek hogyan használják ezeket az eszközöket, és azok mennyire gyengék az információ (az internet alapvető valutája) megfelelő kezelésében. A The Verge pedig emlékeztet rá, hogy a piaci részesedésre hajtó fejlesztők az első pillanattól igyekeznek letolni magukról a felelősséget.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak