A vállalat kényszerszabadságra küldte egyik tudósát, aki azt a meggyőződését hangoztatta, hogy az általuk fejlesztett chatbot érző lénnyé vált.

A Google felfüggesztette egyik vezető szoftvermérnökét, miután azt állította, hogy a cég egyik kísérleti mesterséges intelligenciája érző lénnyé vált. A számítástudományi és filozófiai tudományos fokozattal is rendelkező Blake Lemoine a Washington Postnak úgy fogalmazott, hogy ha nem lenne vele pontosan tisztában, hogy az általuk fejlesztett programról van szó, azt hinné, hogy egy hét-nyolc éves gyerekkel van dolga, aki történetesen mág fizikából is jó. A sztori rövid idő alatt nagy visszhangot keltett, és egyre terebélyesedő vitát generált arról, hogy a chatbotok formájában megjelenő, összetett nyelvi modellek egyáltalán képesek lehetnek-e öntudatra ébredni.

A kézenfekvő lehetőség természetesen az, hogy a Lemoine-t másokhoz hasonlóan elbűvölte egy okosan megtervezett algoritmus, amelyik nem tesz mást, mint újrahasznosítja az általa korábban feldolgozott emberi nyelv részleteit – más szóval, még a pedigrés tudós is saját maga antropomorfizálta a mesterséges intelligenciát. A Language Model for Dialogue Applications (LaMDA) olyan fejlett nyelvi modelleken alapul, amelyek segítségével nagyon hatásosan képes utánozni az emberi beszédet. Lemoine pedig szerteágazó beszélgetésbe kezdett a robottal, miközben eredetileg azt vizsgálta volna, hogy a LaMDA generált-e valaha gyűlöletbeszédet.

Az ilyesmi egyébként nem ritkaság a hasonló nyelvi modelleknél, de a Google mérnőke ennél sokkal tovább ment, és Asimov harmadik robotika-törvényétől vagy a személyiségtől kezdve a halállal kapcsolatos kérdésekig vagy az inas és a rabszolga közötti különbségig tárgyalta meg vele a dolgokat. Élményeinek hatására aztán figyelmeztette a feletteseit, hogy a LaMDA életre kelt, de a jelek szerint ezzel nem sikerült lenyűgöznie őket: nem csak Lemoine megállapításait tartották megalapozatlannak, de makacskodásával azt is megnyerte magának, hogy hétfőtől fizetett adminisztratív szabadságra helyezték, sőt elmondása szerint pszichiátriai kezelést javasoltak neki.

A felhasználóknak is érdemes lenne alkalmazkodniuk

A sztori azért is érdekes, mert most nem a hologramokat feleségül kérő japán civilekről van szó, hanem a Google egy magas beosztású mérnökéről, aki többek között tagja az ISO/IEC mesterséges intelligenciával és MI-etikával foglalkozó bizottságának. A Google szóvivője az ügy kapcsán elmondta, hogy a szélesebb mesterségesintelligencia-közösség tagjai között is akadnak, akiket foglalkoztat az érző vagy általános mesterséges intelligencia hosszú távú lehetősége, de a jelenleg létező, szoftveres társalgási modelleket akkor sincs értelme emberi tulajdonságokkal felruházni, mert azok nyilvánvalóan nem tekinthetők érző lényeknek.

A Washington Post szerint a szakértők többsége azzal kapcsolatban is szkeptikus, amit Lemoine állítólag a LaMDA-val átélt. A Washingtoni Egyetem nyelvészprofesszora például elmondta a lapnak, hogy a fejlett gépek tényleges értelem nélkül generálnak szavakat, de mi a magunk részéről még nem tanultuk meg, hogy ne képzeljük ezek mögé egy működő elmét. Az egyre szofisztikáltabb algoritmusok ugyanis képesek nagyon ügyesen megjósolni, hogy más, hasonló beszélgetésekben mi hangzana el a következő lépésben, ezt pedig nagyon könnyű félreértelmezni, és egy másik emberrel való beszélgetésként érzékelni, erősen túlbecsülve a chatbotok képességeit.

A LaMDA és a hasonló rendszerek az általuk feldolgozott mondatok millióiban található szóváltásokat utánozzák, és ezáltal bármilyen fantasztikus témára képesek rezonálni. Lemoine (aki a WP szerint változatos előélete során az okkultizmusban vagy a keresztény miszticizmusban is elmélyedt) ennek ellenére ragaszkodik hozzá, hogy felismer egy valódi személyt, ha beszél vele. A fejlesztéseit támogató felhajtás közepette egyébként maga a Google sem teljesen következetes: egyik alelnöke az év elején még cikket írt a mesterséges intelligenci a tudatosság felé tett lépéseiről, most pedig részt vett Lemoine állításainak értékelésében, és el is utasította azokat.

Közösség & HR

A Tesla bármelyik másik márkánál több halálos balesetben érintett

Az elmúlt években gyártott járműveket vizsgálva kiderült, hogy az amerikai utakon a Teslák az átlagosnál kétszer gyakrabban szerepelnek végzetes ütközésekben a megtett mérföldek arányában.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.