A nagy nyelvi modellek (LLM) iránti érdeklődés felfutásával nyilvánvalóvá váltak az emberszerű szöveget és válaszokat előállító mesterséges intelligencia kimeneti pontatlanságai is, amit előszeretettel neveznek MI-hallucinációnak. Ezek a biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hibájából vagy hiányából fakadnak, hanem azt a jelenséget takarják, amikor a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. A Glasgow-i Egyetem kutatói szerint azonban a terminológia félrevezető, és elfedi a modellek működésének fontos jellemzőit.
A tudósok néhány nappal ezelőtt közzétett tanulmányukban amellett érvelnek, hogy a nagy nyelvi modellek általános tevékenységét inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni. Igaz, hogy a hallucináció, vagyis a nem létező dolgok érzékelése a mesterséges intelligencia kontextusában metaforikus. Az LLM-ek azonban nem olyasmit próbálnak átadni, amit érzékelnek vagy értenek, sőt a működésükből következik, hogy egyáltalán nem próbálnak közölni semmiféle információt. Ugyanakkor közömbösek a kimeneteik igazságát illetően is, ami a "bullshitelés" egyik sajátossága.
Nem vezet jóra a szómágia
Ezen belül egyébként megkülönböztetnek "soft" és "hard" bullshitet, vagyis azokat az eseteket, amikor a beszélőnek feltett szándéka a hallgatóság félrevezetése, illetve azokat az eseteket, amikor valaki különösebb elképzelés nélkül szövegel össze-vissza. Ennek értelmében minden MI-chatbot és a tanulmány tárgyát képező ChatGPT is minimum a soft bullshit gyártására szolgáló gépezetet. Minimum, mert programozásukban és betanításukban megjelenhetnek mögöttes szándékok, de a modellek azok hiányában sem képesek viszonyulni az igazsághoz. Egyetlen céljuk ugyanis az emberi hangzású szövegek termelése.
Mindez nyilvánvaló veszélyeket hordoz, ahogy az emberek egyre gyakrabban hagyatkoznak a chatbotokra, és a tudósok szerint fontos lenne a megfelelő kifejezések alkalmazása a rendszerek viselkedésének pontosabb leírásához vagy előrejelzéséhez. A befektetők, a döntéshozók és általában a nagyközönség tagjai sem mélyreható műszaki ismeretek alapján alkotnak véleményt az MI-technológiáról, a hallucináció kifejezés pedig azt sugallja, hogy a gépek félreértenek ugyan dolgokat, de megpróbálnak közvetíteni valamit, amit hisznek vagy észlelnek – ez pedig nagyban torzíthatja a velük szemben támasztott elvárásokat is.
Így újult meg Magyarország leggyorsabb mobilhálózata
Közel 100 milliárd forintos beruházással, a rádiós és maghálózat teljes modernizációjával zárult le a Yettel történetének egyik legnagyobb műszaki fejlesztése.
Cyber Threat Intelligence: üzleti előny a sötét adatokból
Egyetlen kompromittált jelszó. Egy belépési pont, amit már nem használnak. Egy korábbi alkalmazott adatszivárgása. Ezek ma már nem csupán technikai hibák, hanem valós üzleti fenyegetések, amelyek a digitális alvilág piacán előbb bukkannak fel, mint ahogy a cég egyáltalán észrevenné.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak