Az Anthropic oldalán néhány nappal ezelőtt közölt bejegyzés szerint a társaság Claude 3 modellje volt az első olyan fejlesztés, amelynek finomhangolása során már "karakterképzést" is alkalmaztak, vagyis a kezdeti betanítást követően árnyaltabb viselkedést próbáltak létrehozni benne, hogy a rendszer jobban hasonlítson egy ideálisnak gondolt MI-asszisztensre. A cikk szerint ezeket a vonásokat többnek kell tekinteni a felhasználói élményt javító termékjellemzőknél, mivel azt is meghatározzák, hogy a modellek hogyan reagálnak a szokatlan és nehezen kezehető helyzetekre, illetve a létező emberi nézetekre és értékekre.
Ez utóbbit különösen kényes területnek tartják abban a tekintetben, hogy könnyű ilyen alapon elidegeníteni a felhasználókat, de az sem lehet cél, hogy a mesterséges intelligencia mindenre csak megértően bólogasson. Itt a kézenfekvő megoldások egyikét sem tartják célravezetőnek: nem érdemes arra trenírozni az MI-t, hogy elfogadja annak a véleményét, akivel éppen beszélget, és a kierőszakolt középen állás sem sokkal jobb, mintha kilúgoznának belőle minden etikai, politikai vagy másféle álláspontot. Fontos azonban, hogy a felhasználók azt is mindig érezzék, hogy nem valamilyen tévedhetetlen entitással léptek interakcióba.
Nem ember, de emberekkel foglalkozik
A teljes elfogadás, a határozott nézetek vagy azok szándékos elfedése helyett az Anthropic azt próbálja elérni, hogy a modellek inkább őszinték legyenek azzal kapcsolatban, milyen álláspontokra hajlanak éppen a tanulásuk során felszedett vélemények és elfogultságok beépítésével, de ne mutassanak túlzott magabiztosságot semmilyen témában. Bár bizonyos értékek tiszteletben tartására tudatosan képzik a Claude-ot, de egy eleve szűk értékhalmaz korlátozná a további tanulást is: alapvető cél például, hogy az emberek folyamatosan érzékeljék, mivel is érintkeznek, de ne valamilyen előre kódolt viselkedésen keresztül.
Ha mindez bonyolultnak hangzik, akkor a kutatók azt is hozzáteszik, hogy a karakterképzés az MI-kutatás egyik nyitott területe, ahol fejlődnek majd a megközelítések. Kérdés, hogy az MI-modelleknek egyedi és koherens karakterekkel kell-e rendelkezniük, és mennyire kell vagy érdemes belenyúlni az ilyesmit meghatározó tulajdonságaikba. Bár a Claude 3 a visszajelzések alapján érdekesebb beszélgetéseket generál a korábbi kiadásokhoz képest, a képzés célja nem egy vonzó MI-személyiség kialakítása, amennyiben az erre való túlzott törekvést az Anthropic is nemkívánatos jellemzőnek tartja az MI-modellek esetében.
A mesterséges intelligencia emberi viselkedést utánzó funkcióinak fejlesztése egyébként régóta vitatéma, és a tapasztalat is azt mutatja, hogy nem jó ötlet túlzásba vinni az ember-gép interakció humanizálását. Nemrég már a Microsoft vezérigazgatója, Satya Nadella is rosszallását fejezte ki az MI antropomorfizálását illetően, sőt szerinte igyekezni kellene minél világosabbá tenni, hogy az MI nem élőlény, és a képességei sem feleltethetők meg az emberi intelligenciához kapcsolódó fogalmaknak. Hogy mindennek mégis hogyan lehet valamilyen karaktert adni, ahhoz remélhetőleg közelebb visznek majd az Anthropic kutatásai is.
a kép forrása: anthropic.com
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak