A Meta olyan beépített biztonsági eljárásokkal tette nyilvánossá a BlenderBot 3 chatbotot, amelyek állítása szerint akár 90 százalékkal csökkentik a program offenzív válaszait, de az ettől még képes illetlenül vagy durván fogalmazni, és következetesen valótlan vagy ellentmondásos dolgokat állítani. A robot demója egyelőre az egyesült államokbeli felhasználók számára érjhető el, de a vállalat tervei szerint hamarosan más országokban is megjelenik. A BlenderBot 3 képes internetes keresések alapján gyakorlatilag bármilyen témáról beszélgetni, és úgy tervezték, hogy megtanulja, hogyan fejlesztheti képességeit és biztonságos működését természetes beszélgetések és valódi emberek visszajelzései alapján.
A társaság kutatásainak kulcsfontosságú része a chatbot nyilvános tesztelésével kapcsolatban, hogy segítsen továbbfejleszteni az említett biztonsági eljárásokat. A Meta közleménye szerint olyan új technikákat alkalmaznak, amelyek a segítőkész felhasználók és a trollok közötti automatikus különbségtételre vonatkozó korábbi vizsgálatokra épülnek. Ezek elvileg támogatják a segítőkész felhasználóktól való tanulást, miközben ezt elkerülik az olyan emberek esetében, amikor valaki a modellt haszontalan vagy kártékony válaszokra próbálja rávenni.
Rögös út vezet a tökéletességhez
Az ilyen kockázatok ma már klasszikusnak számító, 2016-os esete a Microsoft Tay csetbotjának nyilvánossá tétele volt, amikor a program eredményeinek egy 19 éves lányt kellett volna idézniük, de a Twitter-felhasználók visszacsatolásait elemezve órák alatt nőgyűlölő Hitler-szimpatizáns lett belőle. A Meta most arra figyelmeztet, hogy hasonlóra a BlenderBot 3 is képes lehet, vagyis a fejhlesztőknek továbbra is ez a legfőbb megoldatlan problémája. A chatbot oldalán úgy fogalmaznak, hogy a robot az elvégzett munka ellenére is tud olyasmit mondani, amire nem büszkék, de az is előfordulhat, hogy rosszul idéz fel korábbi részleteket, vagy egyenesen megfeledkezik róla, hogy ő maga tulajdonképpen egy chatbot.
A fejlesztők szerint azonban ez még nyomósabb okot ad rá, hogy bevonják a kutatók tágabb közösségét, máskülönben sokkal korlátozottabb lehetőségeik lennének az "észlelési és hatáscsökkentő stratégiák kidolgozására". A Meta ezért arra biztatja a felhasználókat, hogy jelentsék, ha a chatbot bármilyen offenzív megnyiatkozást tesz, vagy ha úgynevezett "hallucinációkat" tapasztalnak – ez utóbbi a Meta leírása alapján azt jelenti, amikor a robot magabiztosan állít valamilyen egyértelműen valótlan dolgot. Ez utóbbi szerintük jellemző a BlenderBot 3-at működtető modellekre, bár azok összesen 175 milliárd paraméterre épülnek, képessé teszik a programot a netes keresésekkel támogatott, nyílt tartományú beszélgetésre, sőt hosszú távú memóriát is biztosítanak neki.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak