A kritikusok szerint persze érdemesebb lenne az MI hétköznapi, de valódi hatásairól beszélni, amelyek szabályozásától a for-profit fejlesztők jobban félnek, mint a világvégétől.

"Azt hiszem, hogy nem állunk még készen, azt hiszem, hogy nem tudjuk, mit csinálunk, és azt hiszem, hogy mindannyian meghalunk" - foglalta össze mesterséges intelligenciával kapcsolatos nézeteit Eliezer Yudkowsky a Bloomberg AI IRL sorozatának múlt heti epizódjában. Az amerikai MI-teoretikus, aki döntéselmélettel és etikával foglalkozó művei mellett a "barátságos mesterséges intelligenciával" kapcsolatos ötleteiről ismert, szélsőséges és egyesek szerint provokatív álláspontot képvisel, amelynek értelmében az MI fejlesztésének elkerülhetetlen eredménye lenne az emberiség kihalása.

A vészterhes jóslatok egyre divatosabbá válnak az iparág fejlődésével, és újabban már az iparág üzleti és szakmai vezetői közül is voltak, akik például ideiglenes moratóriumra szólítottak fel az OpenAI ChatGPT-jét működtető legújabb modell, a GPT-4 képességein túlmutató kutatásokban. Yudkowsky viszont azok közé tartozik, akik évtizedek óta képviselnek ehhez hasonló álláspontot, most pedig megerősíti, hogy "nagyjából fogalmunk sincs, mi történik a GPT-4-ben. Szerinte vannak elméleteink, de nem tudjuk érdemben vizsgálni a törtszámok hatalmas mátrixait, a velük végzett műveleteket és azok jelentését.

Nem mindegy, hogy miért vészmadárkodik valaki

A Futurism beszámolója ezzel kapcsolatban Sasha Luccionit, a Hugging Face kutatóját is idézi, aki úgy látja, az ilyen figyelmeztetések ma már dominálják a mesterséges intelligenciáról szóló diskurzust, és az érdekelt cégek is csak olajat öntenek a tűzre, hogy kibújjanak felelősségk alól. Ugyanis az egzisztenciális kockázatok lebegtetése elvonja a figyelmet a fejlesztők elszámoltathatóságáról az MI közvetlenebb, de viszonylag hétköznapi következményeit illetően. Ez aktuálisan olyasmit jelent, mint az ipari szintű plágium, az emberi munkahelyek elvesztése vagy a technológia hatalmas környezeti lábnyoma.

Erre természetesen az OpenAI vezérigazgatója, Sam Altman a kézenfekvő példa, aki saját bevallása szerint is fegyverek, gázmaszkok, gyógyszerek és akkumulátorok felhalmozásával készül egy világvégeszerű eseményre, és egyfolytában az MI veszélyeire figyelmeztet, miközben már dollármilliárdokért tapossa a gázt a GPT-4 fejlesztésében. Yudkowsky ezzel szemben olyan mechanizmusok tervezését javasolja, amelyek a kezdetektől fogva "barátságosra" tervezett rendszereket segédfunkciókkal látják el, figyelembe véve a tervezők tévedhetőségét és a kiegyensúlyozva a modellek tanulásával járó változásokat is.

A teljes beszélgetés a Bloomberg Originals csatornáján tekinthető meg »

Cloud & big data

Arcvonásaik alapján szúrja ki az ittas vezetőket a mesterséges intelligencia

Az ausztrál tudósok által alkotott technológia ránézésre is elég pontosan megmondja, ha valaki túl részeg ahhoz, hogy járművet vezessen.
 
Nincs automatikus és egyszerű út a felhőnirvánába, pedig a buktatók többségét viszonylag egyszerűen el lehetne kerülni.

a melléklet támogatója a 4iG Nyrt.

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.