A Google a hét elején indította el a Bard chatbot belső tesztelését, amelynek részeként a vezetőség arra kérte a teljes munkaerőt, hogy 2-4 órával járuljanak hozzá a lehetséges felhasználói kérdések széles körére adott válaszok javításához. A robot ugyanis a legjobban a példákon keresztül tanul, így nagy mennyiségű adat elemzésével lesz képes a megfelelő, emberszerű válaszok előállítására a különféle területeken. A Business Insider riportja szerint arra ösztönzik a Google dolgozóit, hogy tegyenek fel kérdéseket a Bardnak az általuk jól ismert témákban, aztán javítsák ki a helytelennek ítélt kimeneteket.
A reakciókat egy dedikált belső csapat építheti be a chatbot tanulási modelljébe, ami a tesztelők egy felfelé vagy lefelé mutató hüvelykujjal is jelezhetnek. A dolog érdekessége az a lista, ami a Barddal végzett munka során "tegye" és "ne tegye" alapon igazítja el az alkalmazottakat: a reakciókat első személyben, "vélemény nélküli, semleges hangnemben" kell megadni", és nem szabad olyan válaszokat írni a Bardnak, amelyek alapján az személyként határozhatja meg magát, vagy más módon azt állíthatja, hogy "emberszerű tapasztalatokkal rendelkezik".
Ezt mindenképpen érdemes lenne elkerülni
A lap beszámolójából kiderül, hogy a vállalat igyekszik elkerülni a faji, nemi és ehhez hasonló sztereotípiákat, sőt felszólította a dolgozókat, hogy jelöljék meg azokat a válaszokat, ahol a Bard jogi, orvosi vagy pénzügyi tanácsokat kínál valamilyen magas kockázatú területen. Ennek alapján úgy tűnik, hogy akármilyen gyorsan igyekszik bevezetni a chatbot-élményt a Microsofttal folytatott versenyfutásában, továbbra is óvatosan próbál eljárni – mint ahogy eddig is a márka hírnevét érintő kockázatok miatt késlekedett a modellek széles körű bevezetésével.
Bár a Google nem válaszolt a Business Insidervonatkozó kérdéseire, azzal már tavaly nyáron sikerült a címlapokra kerülnie, hogy felfüggesztette (majd később elbocsátotta) egyik vezető szoftvermérnökét, aki azt állította, hogy a cég egyik kísérleti mesterséges intelligenciája érző lénnyé alakult. Akkor is a Bard mögött álló nagy nyelvi modellről, a LaMDA-ról volt szó, amelytől a Google azt várja, hogy ellentmondásos megnyilvánulások nélkül adjon hasznos válaszokat olyan kérdésekre, mint amilyenek például egy vacsora helyszínére irányuló keresések.
Közben már olyan véleményeket is lehet olvasni, amelyek szerint az egyre kockázatosabb felhasználások elkerülésére valamilyen "fordított Turing-tesztre" lenne szükség, ezen pedig egyelőre a ChatGPT, a Bard és az összes többi rendszer is egész biztosan elhasalna. A Princetoni Egyetem idegtudományi professzorának egyik cikke alapján például a jelenlegi, mesterséges intelligenciával működő chatbotok kézenfekvő módon veszélyes szociopatává alakulnak, ami abból fakad, hogy az MI sem tudja dönteni, hogy élő emberrel vagy egy másik számítógéppel beszélget.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak