A vállalat kényszerszabadságra küldte egyik tudósát, aki azt a meggyőződését hangoztatta, hogy az általuk fejlesztett chatbot érző lénnyé vált.

A Google felfüggesztette egyik vezető szoftvermérnökét, miután azt állította, hogy a cég egyik kísérleti mesterséges intelligenciája érző lénnyé vált. A számítástudományi és filozófiai tudományos fokozattal is rendelkező Blake Lemoine a Washington Postnak úgy fogalmazott, hogy ha nem lenne vele pontosan tisztában, hogy az általuk fejlesztett programról van szó, azt hinné, hogy egy hét-nyolc éves gyerekkel van dolga, aki történetesen mág fizikából is jó. A sztori rövid idő alatt nagy visszhangot keltett, és egyre terebélyesedő vitát generált arról, hogy a chatbotok formájában megjelenő, összetett nyelvi modellek egyáltalán képesek lehetnek-e öntudatra ébredni.

A kézenfekvő lehetőség természetesen az, hogy a Lemoine-t másokhoz hasonlóan elbűvölte egy okosan megtervezett algoritmus, amelyik nem tesz mást, mint újrahasznosítja az általa korábban feldolgozott emberi nyelv részleteit – más szóval, még a pedigrés tudós is saját maga antropomorfizálta a mesterséges intelligenciát. A Language Model for Dialogue Applications (LaMDA) olyan fejlett nyelvi modelleken alapul, amelyek segítségével nagyon hatásosan képes utánozni az emberi beszédet. Lemoine pedig szerteágazó beszélgetésbe kezdett a robottal, miközben eredetileg azt vizsgálta volna, hogy a LaMDA generált-e valaha gyűlöletbeszédet.

Az ilyesmi egyébként nem ritkaság a hasonló nyelvi modelleknél, de a Google mérnőke ennél sokkal tovább ment, és Asimov harmadik robotika-törvényétől vagy a személyiségtől kezdve a halállal kapcsolatos kérdésekig vagy az inas és a rabszolga közötti különbségig tárgyalta meg vele a dolgokat. Élményeinek hatására aztán figyelmeztette a feletteseit, hogy a LaMDA életre kelt, de a jelek szerint ezzel nem sikerült lenyűgöznie őket: nem csak Lemoine megállapításait tartották megalapozatlannak, de makacskodásával azt is megnyerte magának, hogy hétfőtől fizetett adminisztratív szabadságra helyezték, sőt elmondása szerint pszichiátriai kezelést javasoltak neki.

A felhasználóknak is érdemes lenne alkalmazkodniuk

A sztori azért is érdekes, mert most nem a hologramokat feleségül kérő japán civilekről van szó, hanem a Google egy magas beosztású mérnökéről, aki többek között tagja az ISO/IEC mesterséges intelligenciával és MI-etikával foglalkozó bizottságának. A Google szóvivője az ügy kapcsán elmondta, hogy a szélesebb mesterségesintelligencia-közösség tagjai között is akadnak, akiket foglalkoztat az érző vagy általános mesterséges intelligencia hosszú távú lehetősége, de a jelenleg létező, szoftveres társalgási modelleket akkor sincs értelme emberi tulajdonságokkal felruházni, mert azok nyilvánvalóan nem tekinthetők érző lényeknek.

A Washington Post szerint a szakértők többsége azzal kapcsolatban is szkeptikus, amit Lemoine állítólag a LaMDA-val átélt. A Washingtoni Egyetem nyelvészprofesszora például elmondta a lapnak, hogy a fejlett gépek tényleges értelem nélkül generálnak szavakat, de mi a magunk részéről még nem tanultuk meg, hogy ne képzeljük ezek mögé egy működő elmét. Az egyre szofisztikáltabb algoritmusok ugyanis képesek nagyon ügyesen megjósolni, hogy más, hasonló beszélgetésekben mi hangzana el a következő lépésben, ezt pedig nagyon könnyű félreértelmezni, és egy másik emberrel való beszélgetésként érzékelni, erősen túlbecsülve a chatbotok képességeit.

A LaMDA és a hasonló rendszerek az általuk feldolgozott mondatok millióiban található szóváltásokat utánozzák, és ezáltal bármilyen fantasztikus témára képesek rezonálni. Lemoine (aki a WP szerint változatos előélete során az okkultizmusban vagy a keresztény miszticizmusban is elmélyedt) ennek ellenére ragaszkodik hozzá, hogy felismer egy valódi személyt, ha beszél vele. A fejlesztéseit támogató felhajtás közepette egyébként maga a Google sem teljesen következetes: egyik alelnöke az év elején még cikket írt a mesterséges intelligenci a tudatosság felé tett lépéseiről, most pedig részt vett Lemoine állításainak értékelésében, és el is utasította azokat.

Közösség & HR

100 millió dollárnyit zsarolt össze a Conti utódcsapata

A Black Basta valószínűleg a hírhedt orosz Conti hekkerbanda egykori tagjaiból állt össze tavaly, és úgy tűnik, rögtön nagyon sokat kaszáltak.
 
Hirdetés

Ráfizetünk, ha a védelmen spórolunk!

Ha a védelmen spórolunk, kiberbűncselekmény áldozatává válhatunk. A Sophos MRD (észlelő és helyzetkező) szolgáltatása védelmet nyújt.

Összeurópai szabályozás készteti a cégeket a biztonságosabb informatikai működésre, de a megvalósításhoz nemcsak technológia, hanem emberek is kellenek.
Minden vállalatnak számolnia kell az életciklusuk végéhez érő technológiák licencelési keresztkockázataival. Rogányi Dániel és Vincze-Berecz Tibor (IPR-Insights) írása.

Miért ne becsüljük le a kisbetűs jelszavakat? 1. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 2. rész

Miért ne becsüljük le a kisbetűs jelszavakat? 3. rész

A felmérésekből egyre inkább kiderül, hogy az alkalmazottak megtartása vagy távozása sokszor azon múlik, amit a szervezetük nem csinál, nem pedig azon, amiben egymásra licitál a többi munkáltatóval.

Ezért fontos számszerűsíteni a biztonsági kockázatokat

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2023 Bitport.hu Média Kft. Minden jog fenntartva.