A nagy nyelvi modellek (LLM) iránti érdeklődés felfutásával nyilvánvalóvá váltak az emberszerű szöveget és válaszokat előállító mesterséges intelligencia kimeneti pontatlanságai is, amit előszeretettel neveznek MI-hallucinációnak. Ezek a biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hibájából vagy hiányából fakadnak, hanem azt a jelenséget takarják, amikor a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. A Glasgow-i Egyetem kutatói szerint azonban a terminológia félrevezető, és elfedi a modellek működésének fontos jellemzőit.
A tudósok néhány nappal ezelőtt közzétett tanulmányukban amellett érvelnek, hogy a nagy nyelvi modellek általános tevékenységét inkább a "bullshit", vagyis a süketelés, hadoválás szóval kellene minősíteni. Igaz, hogy a hallucináció, vagyis a nem létező dolgok érzékelése a mesterséges intelligencia kontextusában metaforikus. Az LLM-ek azonban nem olyasmit próbálnak átadni, amit érzékelnek vagy értenek, sőt a működésükből következik, hogy egyáltalán nem próbálnak közölni semmiféle információt. Ugyanakkor közömbösek a kimeneteik igazságát illetően is, ami a "bullshitelés" egyik sajátossága.
Nem vezet jóra a szómágia
Ezen belül egyébként megkülönböztetnek "soft" és "hard" bullshitet, vagyis azokat az eseteket, amikor a beszélőnek feltett szándéka a hallgatóság félrevezetése, illetve azokat az eseteket, amikor valaki különösebb elképzelés nélkül szövegel össze-vissza. Ennek értelmében minden MI-chatbot és a tanulmány tárgyát képező ChatGPT is minimum a soft bullshit gyártására szolgáló gépezetet. Minimum, mert programozásukban és betanításukban megjelenhetnek mögöttes szándékok, de a modellek azok hiányában sem képesek viszonyulni az igazsághoz. Egyetlen céljuk ugyanis az emberi hangzású szövegek termelése.
Mindez nyilvánvaló veszélyeket hordoz, ahogy az emberek egyre gyakrabban hagyatkoznak a chatbotokra, és a tudósok szerint fontos lenne a megfelelő kifejezések alkalmazása a rendszerek viselkedésének pontosabb leírásához vagy előrejelzéséhez. A befektetők, a döntéshozók és általában a nagyközönség tagjai sem mélyreható műszaki ismeretek alapján alkotnak véleményt az MI-technológiáról, a hallucináció kifejezés pedig azt sugallja, hogy a gépek félreértenek ugyan dolgokat, de megpróbálnak közvetíteni valamit, amit hisznek vagy észlelnek – ez pedig nagyban torzíthatja a velük szemben támasztott elvárásokat is.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak