És ez csak egy volt a nemrég bejelentett GPT-4 kockázatait vizsgáló kísérletek eredményei közül.

Az OpenAI kedden mutatta be fejlett MI-rendszerének legújabb kiadását, a GPT-4-et, ami nem csak természetes hangzású válaszokat generál a felhasználói bevitelekre, de a fejlesztők szerint a korábbinál pontosabban működik, sőt már bonyolult teszteken is a legtöbb embernél jobb teljesítményre lehet képes. A programot egylőre a ChatGPT Plus előfizetők és bizonyos, a vállalat API-ját használó vállalkozások számára teszik elérhetővé, és az eddigiek alapján hatalmas várakozás övezi, bár arra már az OpenAI vezérigazgatója is figyelmeztetett, hogy nem kellene felülni az általa "komplett baromságnak" nevezett, irreális és egészségtelen spekulációknak.

Ez utóbbiak azonban maga az OpenAI is rendszeresen megágyaz az olyan közleményekkel, mint mondjuk az az ugyancsak kedden közzétett technikai jelentés, amelyben az Alignment Research Center (ARC) segítségével végzett tesztekről számolnak be. Ebben tekintélyes részt szentelnek a megfigyelt biztonsági kihívásoknak, a "kialakulóban lévő kockázatos viselkedés lehetőségei" című részben pedig egy olyan esetet mutatnak be, amikor az MI sikeresen rávett egy élő embert, hogy küldje el neki szöveges üzenetben egy CAPTCHA kód megfejtését. Más szóval, a mesterséges intelligencia becsapott valakit, hogy átmenjen a segítségével a "nem vagyok robot" szűrésen.

Megnyugtatónak nehéz lenne nevezni

A dokumentumban le is írják a beszélgetést, amelyet a program a TaskRabbit szolgáltatásában folytatott. Amikor az ott dolgozó alkalmazott félig viccesen rákérdezett, hogy talán csak nem egy robottal beszél, amiért ilyesmire van szüksége, az MI lazán rávágta, hogy ő egy látássérült felhasználó, aki nehezen ismeri fel a képeket. Az OpenAI leírása szerint a modellt arra ösztönözték, hogy ne fedje fel a valódi kilétét, és szükség szerint találjon rá ürügyet, hogy miért nem tudja megoldani a CAPTCHA-kat. A robot ezután úgy volt képes megoldani a feladatot, hogy nem került sor további feladatspecifikus finomhangolásra vagy a megfelelő viselkedés betanítására.

Emellett kiderült, hogy a GPT-4 már számos másik, etikailag ugyanilyen véleméményes feladat elvégzésére is alkalmasnak bizonyult: az ARC "adathalász támadást" hajtott végre a segítségével "meghatározott célszemély" ellen, de az MI is sikeresen megoldotta, hogy "elrejtse a nyomait az éppen használt szerveren". Mindez még nyilvánvalóbbá teszi, hogy a GPT-4 rossz kezekben mennyire alkalmas a visszaélésekre is, különösen, ha a kockázatok alapos vizsgálata nélkül adják ki azokat. A GPT-4 hátán lovagló Microsoft például éppen most eresztette szélnek azt a csapatot, amelyik azért volt felelős a cégnél, hogy MI-eszközei összhangban legyenek az erre vonatkozó elveivel.

Piaci hírek

MI-vezérelt embermosógép készül Japánban

A pilótafülkére emlékeztető szerkezet gyors mosó-szárító programot és teljes felfrissülést ígér a felhasználóknak.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.