Egy márciusban közzétett tanulmány alapján a fejlett MI-modellek képesek butábbnak tettetni magukat, mint amilyenek valójában. A kutatók azt vizsgálták, hogy a nagy nyelvi modellek (LLM-ek) hogyan képesek szimulálni a fejlett kognitív és nyelvi képességeken túl azok korábbi fejlődési szakaszait, különös tekintettel a gyerekeknél megfigyelhető árnyalatokra. A tudatelméleti tesztek során pedig azt tapasztalták, hogy a mesterséges intelligencia nem csak a gyerekek nyelvtanulási szakaszaira jellemző kimeneteket tud produkálni, de a jelek szerint igazodik az egyes szakaszokhoz kapcsolódó mentális képességekhez is.
Ahogy a kutatás egyik szerzője a PsyPost cikkében kifejti, a pszicholingvisztikának köszönhetően már átfogó ismeretekkel rendelkezünk róla, hogy mire képesek a gyerekek különböző életkorokban. A tudatelmélet ezen belül a gyerekek belső világát is megpróbálja feltárni, és az már kiderült, hogy a dolgot nem lehet emulálni egyszerűen a statisztikai minták megfigyelésével. A nagy mennyiségű szöveges adaton betanított, lényegében statisztikai előrejelzésekkel dolgozó MI azonban a több mint ezer kísérlet és kognitív teszt során sikeresen megoldotta, hogy az utasításoknak megfelelően 1-6 éves gyerekként viselkedjen.
Hiba lenne a korlátozások miatt alábecsülni
A GPT-3.5 Turbo és GPT-4 modellek ezzel képesek voltak konzisztens módon alacsonyabb intelligenciát mutatni, mint amennyivel ténylegesen rendelkeznek, ennek pedig értelemszerűen komoly következményei lehetnek, ahogy a rendszerek egyre okosabbá válnak. Arra persze a cikkben is figyelmeztetnek, hogy a mesterséges intelligencia antropomorfizálása akkor sem jó ötlet, ha a programok emberi fogalmak szerinti megértéséhez hasznosak lehetnek az ilyen egyszerűsítések. Ehelyett a tudósok az MI-modellek képességeinek vizsgálatára helyeznék a hangsúlyt az emberi tulajdonságok (jó, rossz stb.) szerinti értékelésük helyett.
Lényegesebbnek tűnhet ugyanis annak tisztázása, hogy a generatív MI mennyire tud bizonyos személyiségeket felépíteni, amire a fentiek alapján az egyik példa a gyerekek viselkedése. Szerintük az eredmények hozzájárulhatnak a mesterséges szuperintelligencia (ASI) kifejlesztéséhez, amit az emberi szintű MI (AGI) utáni következő lépésnek tartanak, és sokkal biztonságosabbá is tehetik azt, ha egyszer sor kerülne rá. Egyrészt fontos lenne elkerülni, hogy mi magunk követeljük meg a (korlátozottabb) emberi intelligencia leutánzását, másrészt az sem lenne veszélytelen, ha emiatt alábecsülnénk az MI képességeit.
Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében
"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak