Ma már állandó téma az emberiség mesterséges intelligencia általi végső pusztulásának lehetősége, ezért is érdekes, hogy módosították az iparág egyik legnagyobb visszhangot kiváltó vitairatának prognózisait.
Hirdetés
 

Az OpenAI korábbi kutatója, a mesterséges intelligencia biztonsági közösségének egyik hangadójaként számon tartott Daniel Kokotajlo tavaly áprilisban jelentkezett az "AI 2027" című forgatókönyvvel, amelynek társszerzőjeként azt vázolta fel, hogy a gyorsan fejlődő MI-rendszerek hogyan verhetik át az egész emberiséget, megszerezve az irányítást a globális döntéshozatal fölött, végül pedig el is törlve az emberi fajt. A szakember hitelességét azoknak az előrejelzéseinek köszönheti, amelyekben már 2021-ben pontosan előre jelezte a chatbotok robbanásszerű elterjedését és az úgynevezett "inference-time scaling" technika későbbi jelentőségét a modern, érvelő MI-rendszerekben. Később arról is ő számolt be, hogy az OpenAI-nál miként olvadt el a technológia biztonságán dolgozó csapat, mivel a társaság által hajszolt mesterséges általános intelligencia (AGI) biztonságát és megfelelő felkészítését célzó munkájuk egyre inkább marginalizálódott.

Az eWeek szerdai összeállítása szerint az AI 2027 tanulmány aktuális frissítésében Kokotajlo és munkatársai most némileg visszakoztak, újraértelmezve saját előrejelzésüket is, mert úgy értékelik, hogy az említett szuperintelligens MI kifejlesztése tovább tart, mint ahogy korábban elképzelték. Igaz, hogy a dokumentumot már eredetileg sem jóslatnak szánták, hanem egy lehetséges jövőképnek, amelyben egy alternatív kimenetelt is felvázoltak: abban a kormányok beavatkoznak és nemzetközi korlátozások is életbe lépnek, hogy az MI továbbra is értelmezhető maradjon, összhangban az emberi értékekkel, bár az emberiség túlélése úgy sem jár a vonatkozó problémák tényleges megoldásával. Így a leginkább drámainak lefestett kockázatok az új változatból sem tűntek el, de késhetnek valamennyit az AI 2027 apokaliptikus idővonalához képest, tekintettel a nyomasztó forgatókönyv egyik fontos aspektusára, az autonóm kódolást elsajátító MI-rendszerekre.

Van még értelme ma is az AGI-ról beszélni?

Az ilyen programok a tudósok szerint "intelligenciarobbanást" indítanának el, mivel az MI-rendszerek ezzel képessé válnának az emberi felügyelet nélküli gyors fejlődésre. A jelek szerint ennek 2027-es bekövetkezte túlságosan optimista jóslat volt (vagy, ahogy az eWeek megjegyzi, túlságosan pesszimista az emberiség szempontjából), és a kutatások beindulását most a 2030-as évek elejére helyezik, a szuperintelligencia 2034 körüli potenciális megjelenésével. A frissítés egyébként, ellentétben az eredeti forgatókönyvvel, már nem megy bele a részletekbe azzal kapcsolatban, hogy a MI elpusztíthatja-e az emberiséget, és ha igen, mikor. Az viszont tény, hogy jelenleg már széles körű szkepticizmus tapasztalható azt az ütemtervet illetően, amelyet az OpenAI is egyfolytában sulykol az AGI felépítésére: a ChatGPT 2022-es megjelenését követően sok mindenkit kapott el a lelkesedés, de a tapasztalatok azóta rávilágítottak az MI fejlődésének nehézségeire is.

Megjelent a "jagged intelligence" (kb. egyenetlen intelligencia) fogalma, ami azokra a rendszerekre utal, amelyek képesek ugyan ellátni bizonyos kognitív feladatokat, de rendszeresen elhasalnak az alapvető érvelés, a hosszú távú tervezés vagy az autonóm cselekvés területén. Az eWeek által idézett egyik szakértő szerint az AI 2027 megvalósulásához "sokkal gyakorlatiasabb, valós készségekkel rendelkező MI-rendszerekre lenne szükség", miközben a folyamatokat lelassítja a társadalom hatalmas tehetetlensége is intézményei, infrastrukturális vagy politikai oldalon. Nem véletlenül szokták megkérdőjelezni magát az AGI fogalmát is, amelynek definícióját még az OpenAI is változtatgatta az elmúlt években: amíg az MI csak a sakk- vagy a gó-játszmákban brillírozott, addig a kifejezésnek még lehetett valami értelme, de a mai vitákban a korábbi nyelvezet elavulttá válik az általános, de kusza és hiányos módon működő rendszerekről szólva.

Nem akut probléma, de ettől még probléma

Akárhogy is, az AI 2027 borús szcenárióját sokan az olyan fikciók közé sorolják, amelyek egy elképzelt szuperintelligenciával és az emberiség kihalásával foglalkoznak, elterelve a figyelmet a most is működő, nem-annyira-szuperintelligencia valós időben tapasztalható károkozásáról. Mások attól tartanak, hogy a drámai idővonalak fatalizmust eredményezhetnek, vagy még felelőtlenebb tempóra ösztönzik azokat a szereplőket, akik az MI-fejlesztésre megnyernivaló háborúként tekintenek. Kokotajlo szerint azonban az idővonalakra szükség van ahhoz, hogy megfelelően szűk időablakot hozzunk létre a cselekvésre, ugyanis tökmindegy, hogy most vagy valamivel később kopogtat be a "transzformatív mesterséges intelligencia", ha a fejlett MI-rendszerek megbízhatóan működése a legkevésbé sem megoldott dolog. Az pedig biztos, hogy a vezető vállalatok nem lassítanak a saját fejlesztését automatizáló mesterséges intelligenciáért folytatott versenyben.

Az eWeek beszámolója arra is kitér, hogy politikai szakértők szerint az intelligencia önmagában nem egyenlő a valós hatalommal, a világ pedig sokkal bonyolultabb, mint ahogy az emberek elképzelik – nem lehet például a szuperintelligens számítógépeket sem egyetlen mozdulattal beágyazni a sok évtizede formálódó katonai vagy kormányzati struktúrákba és más összetett rendszerekbe. Másfelől nehéz figyelmen kívül hagyni az olyan figyelmeztetéseket, mint amikor Yoshua Bengio, a mesterséges intelligencia egyik "keresztapjának" nevezett tudós a Guardian év végi cikkében az MI-rendszere ruházott jogok ellen érvel. Szerinte a legfejlettebb MI-modellek kísérleti környezetben már ma is mutatják az önfenntartó viselkedés jeleit, és bármilyen autonómiának könnyen az lehet a vége, hogy a hatóképességük növekedésével később már nem lesz módunk leállítani őket. Ezért sürgősen fel kell állítani a megfelelő technikai és társadalmi védőkorlátokat, beleértve a "vészleállító kapcsolót" is.

Piaci hírek

A mobilnetezés mellett a tévézésbe is belehúztunk az ünnepek alatt

Az elmúlt év utolsó napjaiban rekordszinten pörgött a mobilos adatforgalom, amelynek harmada már 5G-s hálózaton bonyolódott – derül ki a Yettel évzáró összesítéséből.
 
Hirdetés

Az ötlettől az értékteremtésig – a gépi tanulási pipeline szerepe az adattudományi működésben

A jó adatok önmagukban még nem elegendők: a modellek csak akkor működnek megbízhatóan, ha egy átlátható, automatizált és reprodukálható környezetben futnak. A gépi tanulási pipeline-ok éppen ezt a technológiai hátteret teremtik meg.

Az adatvezérelt működés sikere ritkán múlik azon, milyen technológiát vezet be egy vállalat. Sokkal inkább az a kulcs, hogyan illeszti az adattárházat, a BI-t és az MI-megoldásokat a meglévő rendszerekhez és döntési folyamatokhoz.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.