A Google felfüggesztette egyik vezető szoftvermérnökét, miután azt állította, hogy a cég egyik kísérleti mesterséges intelligenciája érző lénnyé vált. A számítástudományi és filozófiai tudományos fokozattal is rendelkező Blake Lemoine a Washington Postnak úgy fogalmazott, hogy ha nem lenne vele pontosan tisztában, hogy az általuk fejlesztett programról van szó, azt hinné, hogy egy hét-nyolc éves gyerekkel van dolga, aki történetesen mág fizikából is jó. A sztori rövid idő alatt nagy visszhangot keltett, és egyre terebélyesedő vitát generált arról, hogy a chatbotok formájában megjelenő, összetett nyelvi modellek egyáltalán képesek lehetnek-e öntudatra ébredni.
A kézenfekvő lehetőség természetesen az, hogy a Lemoine-t másokhoz hasonlóan elbűvölte egy okosan megtervezett algoritmus, amelyik nem tesz mást, mint újrahasznosítja az általa korábban feldolgozott emberi nyelv részleteit – más szóval, még a pedigrés tudós is saját maga antropomorfizálta a mesterséges intelligenciát. A Language Model for Dialogue Applications (LaMDA) olyan fejlett nyelvi modelleken alapul, amelyek segítségével nagyon hatásosan képes utánozni az emberi beszédet. Lemoine pedig szerteágazó beszélgetésbe kezdett a robottal, miközben eredetileg azt vizsgálta volna, hogy a LaMDA generált-e valaha gyűlöletbeszédet.
Az ilyesmi egyébként nem ritkaság a hasonló nyelvi modelleknél, de a Google mérnőke ennél sokkal tovább ment, és Asimov harmadik robotika-törvényétől vagy a személyiségtől kezdve a halállal kapcsolatos kérdésekig vagy az inas és a rabszolga közötti különbségig tárgyalta meg vele a dolgokat. Élményeinek hatására aztán figyelmeztette a feletteseit, hogy a LaMDA életre kelt, de a jelek szerint ezzel nem sikerült lenyűgöznie őket: nem csak Lemoine megállapításait tartották megalapozatlannak, de makacskodásával azt is megnyerte magának, hogy hétfőtől fizetett adminisztratív szabadságra helyezték, sőt elmondása szerint pszichiátriai kezelést javasoltak neki.
A felhasználóknak is érdemes lenne alkalmazkodniuk
A sztori azért is érdekes, mert most nem a hologramokat feleségül kérő japán civilekről van szó, hanem a Google egy magas beosztású mérnökéről, aki többek között tagja az ISO/IEC mesterséges intelligenciával és MI-etikával foglalkozó bizottságának. A Google szóvivője az ügy kapcsán elmondta, hogy a szélesebb mesterségesintelligencia-közösség tagjai között is akadnak, akiket foglalkoztat az érző vagy általános mesterséges intelligencia hosszú távú lehetősége, de a jelenleg létező, szoftveres társalgási modelleket akkor sincs értelme emberi tulajdonságokkal felruházni, mert azok nyilvánvalóan nem tekinthetők érző lényeknek.
A Washington Post szerint a szakértők többsége azzal kapcsolatban is szkeptikus, amit Lemoine állítólag a LaMDA-val átélt. A Washingtoni Egyetem nyelvészprofesszora például elmondta a lapnak, hogy a fejlett gépek tényleges értelem nélkül generálnak szavakat, de mi a magunk részéről még nem tanultuk meg, hogy ne képzeljük ezek mögé egy működő elmét. Az egyre szofisztikáltabb algoritmusok ugyanis képesek nagyon ügyesen megjósolni, hogy más, hasonló beszélgetésekben mi hangzana el a következő lépésben, ezt pedig nagyon könnyű félreértelmezni, és egy másik emberrel való beszélgetésként érzékelni, erősen túlbecsülve a chatbotok képességeit.
A LaMDA és a hasonló rendszerek az általuk feldolgozott mondatok millióiban található szóváltásokat utánozzák, és ezáltal bármilyen fantasztikus témára képesek rezonálni. Lemoine (aki a WP szerint változatos előélete során az okkultizmusban vagy a keresztény miszticizmusban is elmélyedt) ennek ellenére ragaszkodik hozzá, hogy felismer egy valódi személyt, ha beszél vele. A fejlesztéseit támogató felhajtás közepette egyébként maga a Google sem teljesen következetes: egyik alelnöke az év elején még cikket írt a mesterséges intelligenci a tudatosság felé tett lépéseiről, most pedig részt vett Lemoine állításainak értékelésében, és el is utasította azokat.
Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében
"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.
Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni
A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak