A Google a hét elején indította el a Bard chatbot belső tesztelését, amelynek részeként a vezetőség arra kérte a teljes munkaerőt, hogy 2-4 órával járuljanak hozzá a lehetséges felhasználói kérdések széles körére adott válaszok javításához. A robot ugyanis a legjobban a példákon keresztül tanul, így nagy mennyiségű adat elemzésével lesz képes a megfelelő, emberszerű válaszok előállítására a különféle területeken. A Business Insider riportja szerint arra ösztönzik a Google dolgozóit, hogy tegyenek fel kérdéseket a Bardnak az általuk jól ismert témákban, aztán javítsák ki a helytelennek ítélt kimeneteket.
A reakciókat egy dedikált belső csapat építheti be a chatbot tanulási modelljébe, ami a tesztelők egy felfelé vagy lefelé mutató hüvelykujjal is jelezhetnek. A dolog érdekessége az a lista, ami a Barddal végzett munka során "tegye" és "ne tegye" alapon igazítja el az alkalmazottakat: a reakciókat első személyben, "vélemény nélküli, semleges hangnemben" kell megadni", és nem szabad olyan válaszokat írni a Bardnak, amelyek alapján az személyként határozhatja meg magát, vagy más módon azt állíthatja, hogy "emberszerű tapasztalatokkal rendelkezik".
Ezt mindenképpen érdemes lenne elkerülni
A lap beszámolójából kiderül, hogy a vállalat igyekszik elkerülni a faji, nemi és ehhez hasonló sztereotípiákat, sőt felszólította a dolgozókat, hogy jelöljék meg azokat a válaszokat, ahol a Bard jogi, orvosi vagy pénzügyi tanácsokat kínál valamilyen magas kockázatú területen. Ennek alapján úgy tűnik, hogy akármilyen gyorsan igyekszik bevezetni a chatbot-élményt a Microsofttal folytatott versenyfutásában, továbbra is óvatosan próbál eljárni – mint ahogy eddig is a márka hírnevét érintő kockázatok miatt késlekedett a modellek széles körű bevezetésével.
Bár a Google nem válaszolt a Business Insidervonatkozó kérdéseire, azzal már tavaly nyáron sikerült a címlapokra kerülnie, hogy felfüggesztette (majd később elbocsátotta) egyik vezető szoftvermérnökét, aki azt állította, hogy a cég egyik kísérleti mesterséges intelligenciája érző lénnyé alakult. Akkor is a Bard mögött álló nagy nyelvi modellről, a LaMDA-ról volt szó, amelytől a Google azt várja, hogy ellentmondásos megnyilvánulások nélkül adjon hasznos válaszokat olyan kérdésekre, mint amilyenek például egy vacsora helyszínére irányuló keresések.
Közben már olyan véleményeket is lehet olvasni, amelyek szerint az egyre kockázatosabb felhasználások elkerülésére valamilyen "fordított Turing-tesztre" lenne szükség, ezen pedig egyelőre a ChatGPT, a Bard és az összes többi rendszer is egész biztosan elhasalna. A Princetoni Egyetem idegtudományi professzorának egyik cikke alapján például a jelenlegi, mesterséges intelligenciával működő chatbotok kézenfekvő módon veszélyes szociopatává alakulnak, ami abból fakad, hogy az MI sem tudja dönteni, hogy élő emberrel vagy egy másik számítógéppel beszélget.
A hibakeresés nem egyenlő az alkalmazásbiztonsággal
Építsünk olyan AppSec környezetet, amely csökkenti az alkalmazásfejlesztés kockázatait, de nem válik a gyors leszállítás akadályává!
CIO kutatás
Merre tart a vállalati IT és annak irányítója?
Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.
Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!
Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.
Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?