A modellek parancsra játszottak szerepeket egy kísérlet során, de olyan jól ment nekik, hogy ezzel újabb kérdések merülhetnek fel a fejlesztésükkel kapcsolatban.

Egy márciusban közzétett tanulmány alapján a fejlett MI-modellek képesek butábbnak tettetni magukat, mint amilyenek valójában. A kutatók azt vizsgálták, hogy a nagy nyelvi modellek (LLM-ek) hogyan képesek szimulálni a fejlett kognitív és nyelvi képességeken túl azok korábbi fejlődési szakaszait, különös tekintettel a gyerekeknél megfigyelhető árnyalatokra. A tudatelméleti tesztek során pedig azt tapasztalták, hogy a mesterséges intelligencia nem csak a gyerekek nyelvtanulási szakaszaira jellemző kimeneteket tud produkálni, de a jelek szerint igazodik az egyes szakaszokhoz kapcsolódó mentális képességekhez is.

Ahogy a kutatás egyik szerzője a PsyPost cikkében kifejti, a pszicholingvisztikának köszönhetően már átfogó ismeretekkel rendelkezünk róla, hogy mire képesek a gyerekek különböző életkorokban. A tudatelmélet ezen belül a gyerekek belső világát is megpróbálja feltárni, és az már kiderült, hogy a dolgot nem lehet emulálni egyszerűen a statisztikai minták megfigyelésével. A nagy mennyiségű szöveges adaton betanított, lényegében statisztikai előrejelzésekkel dolgozó MI azonban a több mint ezer kísérlet és kognitív teszt során sikeresen megoldotta, hogy az utasításoknak megfelelően 1-6 éves gyerekként viselkedjen.

Hiba lenne a korlátozások miatt alábecsülni

A GPT-3.5 Turbo és GPT-4 modellek ezzel képesek voltak konzisztens módon alacsonyabb intelligenciát mutatni, mint amennyivel ténylegesen rendelkeznek, ennek pedig értelemszerűen komoly következményei lehetnek, ahogy a rendszerek egyre okosabbá válnak. Arra persze a cikkben is figyelmeztetnek, hogy a mesterséges intelligencia antropomorfizálása akkor sem jó ötlet, ha a programok emberi fogalmak szerinti megértéséhez hasznosak lehetnek az ilyen egyszerűsítések. Ehelyett a tudósok az MI-modellek képességeinek vizsgálatára helyeznék a hangsúlyt az emberi tulajdonságok (jó, rossz stb.) szerinti értékelésük helyett.

Lényegesebbnek tűnhet ugyanis annak tisztázása, hogy a generatív MI mennyire tud bizonyos személyiségeket felépíteni, amire a fentiek alapján az egyik példa a gyerekek viselkedése. Szerintük az eredmények hozzájárulhatnak a mesterséges szuperintelligencia (ASI) kifejlesztéséhez, amit az emberi szintű MI (AGI) utáni következő lépésnek tartanak, és sokkal biztonságosabbá is tehetik azt, ha egyszer sor kerülne rá. Egyrészt fontos lenne elkerülni, hogy mi magunk követeljük meg a (korlátozottabb) emberi intelligencia leutánzását, másrészt az sem lenne veszélytelen, ha emiatt alábecsülnénk az MI képességeit.

Cloud & big data

Rendőri fellépés vetett véget az első utcai ember-robot veszekedésnek

A kínai Makaón egy idős asszony támadta le a háta mögött tébláboló humanoidot, aki véletlenül alaposan ráijesztett.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.