Ez is egy olyan kifejezés lehet, ami súlyosan félrevezető a generatív MI alapvető hiányosságaival kapcsolatban.

A nagy nyelvi modellek (LLM) iránti érdeklődés felfutásával nyilvánvalóvá váltak az emberszerű szöveget és válaszokat előállító mesterséges intelligencia kimeneti pontatlanságai is, amit előszeretettel neveznek MI-hallucinációnak. Ezek a biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hibájából vagy hiányából fakadnak, hanem azt a jelenséget takarják, amikor a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. A Glasgow-i Egyetem kutatói szerint azonban a terminológia félrevezető, és elfedi a modellek működésének fontos jellemzőit.

A tudósok néhány nappal ezelőtt közzétett tanulmányukban amellett érvelnek, hogy a nagy nyelvi modellek általános tevékenységét inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni. Igaz, hogy a hallucináció, vagyis a nem létező dolgok érzékelése a mesterséges intelligencia kontextusában metaforikus. Az LLM-ek azonban nem olyasmit próbálnak átadni, amit érzékelnek vagy értenek, sőt a működésükből következik, hogy egyáltalán nem próbálnak közölni semmiféle információt. Ugyanakkor közömbösek a kimeneteik igazságát illetően is, ami a "bullshitelés" egyik sajátossága.

Nem vezet jóra a szómágia

Ezen belül egyébként megkülönböztetnek "soft" és "hard" bullshitet, vagyis azokat az eseteket, amikor a beszélőnek feltett szándéka a hallgatóság félrevezetése, illetve azokat az eseteket, amikor valaki különösebb elképzelés nélkül szövegel össze-vissza. Ennek értelmében minden MI-chatbot és a tanulmány tárgyát képező ChatGPT is minimum a soft bullshit gyártására szolgáló gépezetet. Minimum, mert programozásukban és betanításukban megjelenhetnek mögöttes szándékok, de a modellek azok hiányában sem képesek viszonyulni az igazsághoz. Egyetlen céljuk ugyanis az emberi hangzású szövegek termelése.

Mindez nyilvánvaló veszélyeket hordoz, ahogy az emberek egyre gyakrabban hagyatkoznak a chatbotokra, és a tudósok szerint fontos lenne a megfelelő kifejezések alkalmazása a rendszerek viselkedésének pontosabb leírásához vagy előrejelzéséhez. A befektetők, a döntéshozók és általában a nagyközönség tagjai sem mélyreható műszaki ismeretek alapján alkotnak véleményt az MI-technológiáról, a hallucináció kifejezés pedig azt sugallja, hogy a gépek félreértenek ugyan dolgokat, de megpróbálnak közvetíteni valamit, amit hisznek vagy észlelnek – ez pedig nagyban torzíthatja a velük szemben támasztott elvárásokat is.

Közösség & HR

Lebuktatták a Grammarly MI-funkcióját

A The Verge kiderítette, hogy a szövegírást támogató szolgáltatás egy új funkciója valós szakértők nevében terjeszt kétes eredetű információkat – természetesen az érintettek engedélye nélkül.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.