Ez is egy olyan kifejezés lehet, ami súlyosan félrevezető a generatív MI alapvető hiányosságaival kapcsolatban.

A nagy nyelvi modellek (LLM) iránti érdeklődés felfutásával nyilvánvalóvá váltak az emberszerű szöveget és válaszokat előállító mesterséges intelligencia kimeneti pontatlanságai is, amit előszeretettel neveznek MI-hallucinációnak. Ezek a biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hibájából vagy hiányából fakadnak, hanem azt a jelenséget takarják, amikor a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. A Glasgow-i Egyetem kutatói szerint azonban a terminológia félrevezető, és elfedi a modellek működésének fontos jellemzőit.

A tudósok néhány nappal ezelőtt közzétett tanulmányukban amellett érvelnek, hogy a nagy nyelvi modellek általános tevékenységét inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni. Igaz, hogy a hallucináció, vagyis a nem létező dolgok érzékelése a mesterséges intelligencia kontextusában metaforikus. Az LLM-ek azonban nem olyasmit próbálnak átadni, amit érzékelnek vagy értenek, sőt a működésükből következik, hogy egyáltalán nem próbálnak közölni semmiféle információt. Ugyanakkor közömbösek a kimeneteik igazságát illetően is, ami a "bullshitelés" egyik sajátossága.

Nem vezet jóra a szómágia

Ezen belül egyébként megkülönböztetnek "soft" és "hard" bullshitet, vagyis azokat az eseteket, amikor a beszélőnek feltett szándéka a hallgatóság félrevezetése, illetve azokat az eseteket, amikor valaki különösebb elképzelés nélkül szövegel össze-vissza. Ennek értelmében minden MI-chatbot és a tanulmány tárgyát képező ChatGPT is minimum a soft bullshit gyártására szolgáló gépezetet. Minimum, mert programozásukban és betanításukban megjelenhetnek mögöttes szándékok, de a modellek azok hiányában sem képesek viszonyulni az igazsághoz. Egyetlen céljuk ugyanis az emberi hangzású szövegek termelése.

Mindez nyilvánvaló veszélyeket hordoz, ahogy az emberek egyre gyakrabban hagyatkoznak a chatbotokra, és a tudósok szerint fontos lenne a megfelelő kifejezések alkalmazása a rendszerek viselkedésének pontosabb leírásához vagy előrejelzéséhez. A befektetők, a döntéshozók és általában a nagyközönség tagjai sem mélyreható műszaki ismeretek alapján alkotnak véleményt az MI-technológiáról, a hallucináció kifejezés pedig azt sugallja, hogy a gépek félreértenek ugyan dolgokat, de megpróbálnak közvetíteni valamit, amit hisznek vagy észlelnek – ez pedig nagyban torzíthatja a velük szemben támasztott elvárásokat is.

Közösség & HR

A Tesla bármelyik másik márkánál több halálos balesetben érintett

Az elmúlt években gyártott járműveket vizsgálva kiderült, hogy az amerikai utakon a Teslák az átlagosnál kétszer gyakrabban szerepelnek végzetes ütközésekben a megtett mérföldek arányában.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.