A kritikusok szerint persze érdemesebb lenne az MI hétköznapi, de valódi hatásairól beszélni, amelyek szabályozásától a for-profit fejlesztők jobban félnek, mint a világvégétől.

"Azt hiszem, hogy nem állunk még készen, azt hiszem, hogy nem tudjuk, mit csinálunk, és azt hiszem, hogy mindannyian meghalunk" - foglalta össze mesterséges intelligenciával kapcsolatos nézeteit Eliezer Yudkowsky a Bloomberg AI IRL sorozatának múlt heti epizódjában. Az amerikai MI-teoretikus, aki döntéselmélettel és etikával foglalkozó művei mellett a "barátságos mesterséges intelligenciával" kapcsolatos ötleteiről ismert, szélsőséges és egyesek szerint provokatív álláspontot képvisel, amelynek értelmében az MI fejlesztésének elkerülhetetlen eredménye lenne az emberiség kihalása.

A vészterhes jóslatok egyre divatosabbá válnak az iparág fejlődésével, és újabban már az iparág üzleti és szakmai vezetői közül is voltak, akik például ideiglenes moratóriumra szólítottak fel az OpenAI ChatGPT-jét működtető legújabb modell, a GPT-4 képességein túlmutató kutatásokban. Yudkowsky viszont azok közé tartozik, akik évtizedek óta képviselnek ehhez hasonló álláspontot, most pedig megerősíti, hogy "nagyjából fogalmunk sincs, mi történik a GPT-4-ben. Szerinte vannak elméleteink, de nem tudjuk érdemben vizsgálni a törtszámok hatalmas mátrixait, a velük végzett műveleteket és azok jelentését.

Nem mindegy, hogy miért vészmadárkodik valaki

A Futurism beszámolója ezzel kapcsolatban Sasha Luccionit, a Hugging Face kutatóját is idézi, aki úgy látja, az ilyen figyelmeztetések ma már dominálják a mesterséges intelligenciáról szóló diskurzust, és az érdekelt cégek is csak olajat öntenek a tűzre, hogy kibújjanak felelősségk alól. Ugyanis az egzisztenciális kockázatok lebegtetése elvonja a figyelmet a fejlesztők elszámoltathatóságáról az MI közvetlenebb, de viszonylag hétköznapi következményeit illetően. Ez aktuálisan olyasmit jelent, mint az ipari szintű plágium, az emberi munkahelyek elvesztése vagy a technológia hatalmas környezeti lábnyoma.

Erre természetesen az OpenAI vezérigazgatója, Sam Altman a kézenfekvő példa, aki saját bevallása szerint is fegyverek, gázmaszkok, gyógyszerek és akkumulátorok felhalmozásával készül egy világvégeszerű eseményre, és egyfolytában az MI veszélyeire figyelmeztet, miközben már dollármilliárdokért tapossa a gázt a GPT-4 fejlesztésében. Yudkowsky ezzel szemben olyan mechanizmusok tervezését javasolja, amelyek a kezdetektől fogva "barátságosra" tervezett rendszereket segédfunkciókkal látják el, figyelembe véve a tervezők tévedhetőségét és a kiegyensúlyozva a modellek tanulásával járó változásokat is.

A teljes beszélgetés a Bloomberg Originals csatornáján tekinthető meg »

Cloud & big data

A Tesla bármelyik másik márkánál több halálos balesetben érintett

Az elmúlt években gyártott járműveket vizsgálva kiderült, hogy az amerikai utakon a Teslák az átlagosnál kétszer gyakrabban szerepelnek végzetes ütközésekben a megtett mérföldek arányában.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.