A mesterséges intelligencia hatása alá került Google-mérnök esetének tanulsága, hogy ha nem vagyunk tisztában a saját magunk által fejlesztett algoritmusok pontos működésével, akkor a saját találmányaink fognak megtéveszteni bennünket.

Az általános mesterséges intelligencia (artificial general intelligence, AGI) fejlesztése elméletileg a gépi tanulás csúcsa, mivel olyan kvalitásokkal ruházná fel a gépeket, amelyek révén az emberhez hasonló autonómiára és feladatmegoldó képességekre tehetnek szert. Ez egyes értelmezések szerint már megfeleltethető lenne az érző lényekben megnyilvánuló öntudatnak is, így mindenki lelkesen tárgyalja az utópisztikus vagy disztópikus jövőképeket, a fantáziát pedig még tovább táplálják az irodalmi vagy filmes alkotások. Egy valódi AGI létrehozásának lehetősége azonban még az MI-kutatásban résztvevő szakembereket is megosztja.

A Venture Beat oldalán a Fortanix adatbiztonsági szolgáltató alelnöke foglalta össze annak a legutóbbi ügynek a tanulságait, amely szerint a Google kényszerszabadságra küldte egyik tudósát, aki arról próbálta meggyőzni a főnökeit, hogy az általuk fejlesztett LaMDA csetbot érző lénnyé vált. A dolog világszerte a címlapokra került, ami jelzi az emberi viselkedést imitáló gépek iránti érdeklődést és várakozásokat, a csetbotok fejlesztésének és működésének jobb megértése azonban ebben az esetben is segíthet tisztázni a különbséget a mesterséges válaszok és egy állítólagos lélekkel rendelkező gép között.

A cikkben természetesen szó esik a közismert Turing-tesztről, amelynek lényege, hogy a megfelelő körülmények között egy valódi ember és egy gép is megpróbál meggyőzni egy kérdezőt, hogy igazi, gondolkodó emberrel beszélget, és ha utóbbi egy bizonyos idő eltelével sem tudja egyértelműen megállapítani, hogy ki kicsoda, akkor az MI sikeresen szerepelt. Bár a Turing-teszt több szempontból sem alkalmas az intelligencia tényleges azonosítására, az tulajdonképpen a másik oldalon dől el, hogy egy gépet tényleg értelmes, gondolkodó lénynek tarthat valaki, vagy csak az összetett imitáció eredményének tudja be a reakcióit.

Ideje lenne egy kicsit észnél lenni

Ma már klasszikusnak számít a Microsoft Tay csetbotjának esete, amelynek kimeneti eredményeivel elvileg egy 19 éves lányt kellett volna idéznie, de a Twitter-felhasználók visszacsatolásaiból tanulva órákon belül Hitler-szimpatizáns nőgyűlölő lett belőle. A csetbotok a természetes nyelvi feldolgozás (natural language processing, NLP) alkalmazására jelentenek példát a gépi tanulás egyik formájában, jól-rosszul elemezve és értelmezve a beszélgetések emberi tényezőit, az észlelt szavak kombinációi alapján állítva össze a megfelelőnek ítélt válaszokat. A csetbot így emberekkel folytatott beszélgetésekben és valódi emberek utánzásában annyira lesz sikeres, amennyire hatékonyak a betanítás során használt adatok és a beszélgetések során alkalmazott megerősítő tanulás.

A cikk szerint a Google címlapsztorija a magyarázhatóság szükségességét emeli ki a mesterséges intelligencia alkalmazásában. A neurális hálózatok olyan tanulási funkciókkal is rendelkezhetnek, amelyek lehetővé teszik a kezdeti céljaikon túlmutató feladatokhoz való alkalmazkodást is, amelyekhez a hálózatot fejlesztették, ugyanakkor azok az okok gyakran homályosak és megfoghatatlanok, amelyek miatt az adott kimenetet adják az adott bemenetre. A torzulások már a betanításra használt adatok mennyiségében és minőségében is ott vannak, a "feketedoboz-problémának" nevezett jelenség pedig azt eredményezi, hogy sem a fejlesztő, sem a felhasználó nem képes pontosan megokolni az MI viselkedését.

A LaMDA és a Tay esete nagyon hasonló, amennyiben még egy szakértő felhasználó is elbizonytalanodhat benne, hogy a gép miért pont úgy reagál valamire, ahogy éppen teszi. Ebből pedig az következik, hogy ha az MI viselkedésének magyarázatát nem kezelik szükségszerűségként már a rendszerek tervezésekor (hogy a fejlesztésről, tesztelésről és telepítésről ne is beszéljünk), akkor a saját találmányaink fognak megtéveszteni bennünket. Ez pedig a rossz attitüdök matematikai-statisztikai alapon való újratermelésétől és a valóság átértelmezésétől egészen odáig terjedhet, hogy nem értjük majd azoknak az algoritmusoknak a működését, amelyek hatásai alól képtelenek vagyunk kivonni magunkat.

Cloud & big data

Kínában sem megy simán a robotaxik bevezetése

Az önvezető konkurencia megjelenését meglehetősen rossz néven veszik az érintett területeken dolgozó taxisok.
 
Általános jelenség a hazai nagyvállalatok körében, hogy a szükségesnél jelentősen többet költenek nyilvánosfelhő-szolgáltatásokra. Utánajártunk, mi a pontos helyzet, és mit lehet tenni a költségek optimalizálásáért.

a melléklet támogatója a 4iG Nyrt.

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.