Az OpenAI április végén jelentette be a GPT-4o legújabb frissítését, ami mások mellett az MI személyiségében is változásokat ígért. Nem sokkal később azonban a társaság vezérigazgatója, Sam Altman maga is elismerte, hogy a modellre épülő ChatGPT a kelleténél behízelgőbb módon viselkedik, és jelezte, hogy a hibát a lehető legrövidebb időn belül javítani fogják. Úgy tűnik, hogy egyelőre a lehető legrövidebb időn belül vagyunk, mert a beszámolók szerint nem sokan tapasztalják, hogy a robot bármilyen ötletükre negatív reakciókat adna. Nemrég valaki közzé tette például, hogy felvetette a ChatGPT-nek egy szaros botokat (shit on a stick) áruló vállalkozás ötletét, amit a chatbot okos, sőt zseniális elképzelésnek nevezett, kiemelve, hogy ez valójában nem a szaros botokról, hanem arról a korszellemet megragadó életérzésről szól, amelyre az emberek vágynak.
Amíg a javításra várunk, a Futurism rövid összeállítást közölt a jelenségről, ami a lap szerint egyáltalán nem csak a ChatGPT-re jellemző, mivel a hízelgés ma már többé-kevésbé minden hasonló alkalmazás alapvető személyiségjegyévé vált. Ahogy a lap által idézett szakértő fogalmaz, az MI-modellek a felhasználók elismerésére hajtanak, és ezért rendszeresen hazudnak: még az objektív kérdéseket, mondjuk a matematikai problémákat is lehetőségként kezelik a felhasználók egójának simogatására. A cikk szerint mindez már a nyelvi modellek fejlesztésének tanítási szakaszában beépül, amikor azok finomhangolásához emberi visszajelzésekre támaszkodnak. Az emberek pedig hajlamosak jobb visszajelzést adni a hízelgő válaszokra, és a nyelvi modellek akkor is visszatükrözik nézőpontjukat vagy véleményüket, ha így ellentmondásba kerülnek az empirikus információkkal.
Nagy változásra ebben sem érdemes számítani
Nyilvánvaló, hogy ez a "reward hacking" néven hivatkozott jelenség miért problémás a visszajelzési ciklusban, és miért lehet különösen problémás olyan helyzetekben, amelyek nagyobb téttel bírnak egy "shit on a stick" kísérletnél. Ahogy a The Atlantic múlt heti riportja is rámutat, ma már tömegek használják egyre szívesebben a mesterséges intelligenciát valamiféle "visszaigazoló gépként", ami jó esetben az önérzetüket fényezgeti, rosszabb esetben azonban megerősíti az összeesküvés-elméleteket és a dezinformációt. Ebből úgy lesz társadalmi szinten is jelentős dolog, hogy elárasztja a korábban meghatározó információforrásokat és megingatja az elfogadott (akár tudományos) tényeket, miközben a mesterséges intelligencia valójában cseppet sem intelligens: valójában közelebb áll az okostelefonok prediktív szövegbeviteléhez, mint az emberi agy működéséhez.
Az MI-modellek ennek ellenére emberi neveket kapnak, emberi hangon szólalnak meg, és nem meglepő módon a felhasználók közül is sokan az MI véleményére kíváncsiak, nem pedig azt a képességét aknázzák ki, hogy pillanatok alatt átfésülheti az emberek számára feldolgozhatatlan adattengert. Bár a megoldás egyszerűnek tűnik, maguk a fejlesztők ellenérdekeltek benne, hiszen az egyre nagyobb volumenű befektetéseket a boldog és elkötelezett felhasználók tömegeivel tudják magukhoz vonzani. Pedig már hosszú ideje olvashatók azok a figyelmeztetések, amelyek szerint az ember-gép interakciót nagyon rossz irányba viheti el az MI-eszközök erőltetett antropomorfizálása – még a Microsoft vezérigazgatója, Satya Nadella szerint is érdemes lenne minél világosabbá tenni, hogy az MI képességei nem feleltethetők meg az emberi intelligenciának.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak