A mesterséges intelligencia hatása alá került Google-mérnök esetének tanulsága, hogy ha nem vagyunk tisztában a saját magunk által fejlesztett algoritmusok pontos működésével, akkor a saját találmányaink fognak megtéveszteni bennünket.

Az általános mesterséges intelligencia (artificial general intelligence, AGI) fejlesztése elméletileg a gépi tanulás csúcsa, mivel olyan kvalitásokkal ruházná fel a gépeket, amelyek révén az emberhez hasonló autonómiára és feladatmegoldó képességekre tehetnek szert. Ez egyes értelmezések szerint már megfeleltethető lenne az érző lényekben megnyilvánuló öntudatnak is, így mindenki lelkesen tárgyalja az utópisztikus vagy disztópikus jövőképeket, a fantáziát pedig még tovább táplálják az irodalmi vagy filmes alkotások. Egy valódi AGI létrehozásának lehetősége azonban még az MI-kutatásban résztvevő szakembereket is megosztja.

A Venture Beat oldalán a Fortanix adatbiztonsági szolgáltató alelnöke foglalta össze annak a legutóbbi ügynek a tanulságait, amely szerint a Google kényszerszabadságra küldte egyik tudósát, aki arról próbálta meggyőzni a főnökeit, hogy az általuk fejlesztett LaMDA csetbot érző lénnyé vált. A dolog világszerte a címlapokra került, ami jelzi az emberi viselkedést imitáló gépek iránti érdeklődést és várakozásokat, a csetbotok fejlesztésének és működésének jobb megértése azonban ebben az esetben is segíthet tisztázni a különbséget a mesterséges válaszok és egy állítólagos lélekkel rendelkező gép között.

A cikkben természetesen szó esik a közismert Turing-tesztről, amelynek lényege, hogy a megfelelő körülmények között egy valódi ember és egy gép is megpróbál meggyőzni egy kérdezőt, hogy igazi, gondolkodó emberrel beszélget, és ha utóbbi egy bizonyos idő eltelével sem tudja egyértelműen megállapítani, hogy ki kicsoda, akkor az MI sikeresen szerepelt. Bár a Turing-teszt több szempontból sem alkalmas az intelligencia tényleges azonosítására, az tulajdonképpen a másik oldalon dől el, hogy egy gépet tényleg értelmes, gondolkodó lénynek tarthat valaki, vagy csak az összetett imitáció eredményének tudja be a reakcióit.

Ideje lenne egy kicsit észnél lenni

Ma már klasszikusnak számít a Microsoft Tay csetbotjának esete, amelynek kimeneti eredményeivel elvileg egy 19 éves lányt kellett volna idéznie, de a Twitter-felhasználók visszacsatolásaiból tanulva órákon belül Hitler-szimpatizáns nőgyűlölő lett belőle. A csetbotok a természetes nyelvi feldolgozás (natural language processing, NLP) alkalmazására jelentenek példát a gépi tanulás egyik formájában, jól-rosszul elemezve és értelmezve a beszélgetések emberi tényezőit, az észlelt szavak kombinációi alapján állítva össze a megfelelőnek ítélt válaszokat. A csetbot így emberekkel folytatott beszélgetésekben és valódi emberek utánzásában annyira lesz sikeres, amennyire hatékonyak a betanítás során használt adatok és a beszélgetések során alkalmazott megerősítő tanulás.

A cikk szerint a Google címlapsztorija a magyarázhatóság szükségességét emeli ki a mesterséges intelligencia alkalmazásában. A neurális hálózatok olyan tanulási funkciókkal is rendelkezhetnek, amelyek lehetővé teszik a kezdeti céljaikon túlmutató feladatokhoz való alkalmazkodást is, amelyekhez a hálózatot fejlesztették, ugyanakkor azok az okok gyakran homályosak és megfoghatatlanok, amelyek miatt az adott kimenetet adják az adott bemenetre. A torzulások már a betanításra használt adatok mennyiségében és minőségében is ott vannak, a "feketedoboz-problémának" nevezett jelenség pedig azt eredményezi, hogy sem a fejlesztő, sem a felhasználó nem képes pontosan megokolni az MI viselkedését.

A LaMDA és a Tay esete nagyon hasonló, amennyiben még egy szakértő felhasználó is elbizonytalanodhat benne, hogy a gép miért pont úgy reagál valamire, ahogy éppen teszi. Ebből pedig az következik, hogy ha az MI viselkedésének magyarázatát nem kezelik szükségszerűségként már a rendszerek tervezésekor (hogy a fejlesztésről, tesztelésről és telepítésről ne is beszéljünk), akkor a saját találmányaink fognak megtéveszteni bennünket. Ez pedig a rossz attitüdök matematikai-statisztikai alapon való újratermelésétől és a valóság átértelmezésétől egészen odáig terjedhet, hogy nem értjük majd azoknak az algoritmusoknak a működését, amelyek hatásai alól képtelenek vagyunk kivonni magunkat.

Cloud & big data

Linus Torvalds eligazította a generatív mesterséges intelligenciát

Már nagyon hiányzott a megfelelő iránymutatás a linuxos közösségnek.
 
Hirdetés

Rendszerek és emberek: a CIO választásai egy új magyar felmérés tükrében

"Nehéz informatikusnak lenni egy olyan cégben, ahol sok az IT-s" – jegyezte meg egy egészségügyi technológiákat fejlesztő cég informatikai vezetője, amikor megkérdeztük, milyennek látja házon belül az IT és a többi osztály közötti kommunikációt.

Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.

a melléklet támogatója a Clico Hungary

Hirdetés

Így lehet sok önálló kiberbiztonsági eszközéből egy erősebbet csinálni

A kulcsszó a platform. Ha egy cég jó platformot választ, akkor az egyes eszközök előnyei nem kioltják, hanem erősítik egymást, és még az üzemeltetés is olcsóbb lesz.

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.