A kritikusok szerint persze érdemesebb lenne az MI hétköznapi, de valódi hatásairól beszélni, amelyek szabályozásától a for-profit fejlesztők jobban félnek, mint a világvégétől.

"Azt hiszem, hogy nem állunk még készen, azt hiszem, hogy nem tudjuk, mit csinálunk, és azt hiszem, hogy mindannyian meghalunk" - foglalta össze mesterséges intelligenciával kapcsolatos nézeteit Eliezer Yudkowsky a Bloomberg AI IRL sorozatának múlt heti epizódjában. Az amerikai MI-teoretikus, aki döntéselmélettel és etikával foglalkozó művei mellett a "barátságos mesterséges intelligenciával" kapcsolatos ötleteiről ismert, szélsőséges és egyesek szerint provokatív álláspontot képvisel, amelynek értelmében az MI fejlesztésének elkerülhetetlen eredménye lenne az emberiség kihalása.

A vészterhes jóslatok egyre divatosabbá válnak az iparág fejlődésével, és újabban már az iparág üzleti és szakmai vezetői közül is voltak, akik például ideiglenes moratóriumra szólítottak fel az OpenAI ChatGPT-jét működtető legújabb modell, a GPT-4 képességein túlmutató kutatásokban. Yudkowsky viszont azok közé tartozik, akik évtizedek óta képviselnek ehhez hasonló álláspontot, most pedig megerősíti, hogy "nagyjából fogalmunk sincs, mi történik a GPT-4-ben. Szerinte vannak elméleteink, de nem tudjuk érdemben vizsgálni a törtszámok hatalmas mátrixait, a velük végzett műveleteket és azok jelentését.

Nem mindegy, hogy miért vészmadárkodik valaki

A Futurism beszámolója ezzel kapcsolatban Sasha Luccionit, a Hugging Face kutatóját is idézi, aki úgy látja, az ilyen figyelmeztetések ma már dominálják a mesterséges intelligenciáról szóló diskurzust, és az érdekelt cégek is csak olajat öntenek a tűzre, hogy kibújjanak felelősségk alól. Ugyanis az egzisztenciális kockázatok lebegtetése elvonja a figyelmet a fejlesztők elszámoltathatóságáról az MI közvetlenebb, de viszonylag hétköznapi következményeit illetően. Ez aktuálisan olyasmit jelent, mint az ipari szintű plágium, az emberi munkahelyek elvesztése vagy a technológia hatalmas környezeti lábnyoma.

Erre természetesen az OpenAI vezérigazgatója, Sam Altman a kézenfekvő példa, aki saját bevallása szerint is fegyverek, gázmaszkok, gyógyszerek és akkumulátorok felhalmozásával készül egy világvégeszerű eseményre, és egyfolytában az MI veszélyeire figyelmeztet, miközben már dollármilliárdokért tapossa a gázt a GPT-4 fejlesztésében. Yudkowsky ezzel szemben olyan mechanizmusok tervezését javasolja, amelyek a kezdetektől fogva "barátságosra" tervezett rendszereket segédfunkciókkal látják el, figyelembe véve a tervezők tévedhetőségét és a kiegyensúlyozva a modellek tanulásával járó változásokat is.

A teljes beszélgetés a Bloomberg Originals csatornáján tekinthető meg »

Cloud & big data

Rendőri fellépés vetett véget az első utcai ember-robot veszekedésnek

A kínai Makaón egy idős asszony támadta le a háta mögött tébláboló humanoidot, aki véletlenül alaposan ráijesztett.
 
A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.