Szó szerint. Ugyanis a 2026-ban érkező Monaka 90 százalékkal csökkentené az MI-modellek kiszolgálásának energiaigényét.
Hirdetés
 

A mesterséges intelligencia kiszolgálásához hatalmas számítási kapacitás kell. Ha az adatközpontok átállnak az MI-modellek kiszolgálására, az akár az energiaellátás stabilitását is veszélyeztetheti. A Fujitsu ugyanakkor beígért egy olyan csipet, ami ezt az energiaigényt akár 90 százalékkal is csökkenthetné.

A Monaka neven futó csip koncepcióját a Fujitsu már tavaly ősszel ismertette az szuperszámítógép-gyártók legjelentősebb világeseményén, az SC22 konferencián, de a napokban további részleteket is elárult a Handelsblattnak. Például hogy már 2026-ban piacra akarja dobni, és hogy a Monaka lehet az első csip, amit a TSMC már a 2 nanométeres technológiával gyárt.

Sok adat, sok számítás – sok energia

Amióta a ChatGPT berobbantotta az MI-piacot, a big techek (mindenekelőtt az amerikaiak és a kínaiak) elképesztő tempóban fejlesztik saját MI-modelljeikhez (illetve a third-party modellek kiszolgálására) az adatközpontjaikat. A Trendforce szerint például idén 60 százalékot meghaladó mértékben bővülhet ez a piac, de 2024-ben is meg fogja haladni a növekedés az 50 százalékot, és csak utána lassul évi 20-30 százalékra a bővülés tempója.

Ezt még önmagában talán le tudná követni az energetikai infrastruktúra, csakhogy ezzel párhuzamosan gyorsul az elektromobilitás terjedése (a magyar kormány például a közelmúltban jelentette be, hogy 60 milliárd támogatást szán a támogatására). Mindkét iparág képviselői azzal riogatnak, hogy hasonló hiány alakulhat ki elektromos energiából, mint volt egy-két éve a csipekből.

A SoftBank egyik vezetője ősszel egy konferencián arról beszélt, hogy léteznek olyan forgatókönyvek, melyek szerint Japán energiaigénye az MI terjedése miatt 2030-ra a 2020-as szint 260-szorosára nőhet. Ez 60 százalékkal nagyobb energiaigény, mint amivel a japán kormány 2040-re számol. A probléma olyannyira égető, hogy a szuperszámítógép-gyártók idén kiemelten foglalkoztak vele az SC23 konferencián.

De miért épp a Fujitsu?

A japán vállalat nem a semmiből érkezik a félvezetőiparba. Bár ma már megoldásszállítóként pozicionálja magát, sokáig az IBM mellett a legjelentősebb mainframe-szállító volt, és a vállalati laptoppiac fontos szereplőjeként is szerzett hardvergyártási tapasztalat. Ezt jelenleg a szuperszámítógép-építésben kamatoztatja. A Riken kutatóintézettel építették a Fugakut, amely jelenleg a negyedik a Top500 listán, és kvantumszámítógépet is fejlesztenek közösen. Ezekhez a fejlesztésekhez házon belül készülnek a csipek.

A Monaka ARM-alapokon épül, állítólag 144 magja lesz, amiket extrémen kicsi struktúrába sikerült belesűríteni. Ez az egyik forrása a processzor hatékonyságának. A Fujitsu a tervei szerint a 2026 áprilisával kezdődő pénzügyi évében hozná piacra, és egyértelműen az Nvidia kihívójának szánja. Az MI-hez használt GPU-k ugyanis egyelőre nem tudtak megfelelő választ adni az energiahatékonysági problémákra.

Csakhogy az Nvidia GPU-k már elfoglalták az MI-hez épített adatközpontok jelentős részét, ráadásul a cég a CUDA köré kiterjed ökoszisztémát épített, ami folyamatosan terebélyesedik alkalmazásokkal és fejlesztőkkel – utóbbiakat pedig így nehéz lesz átcsábítani a Fujitsu platformjára.

De az is lehet, hogy a Fujitsu csipje nem az adatközpontokban, hanem az éleken (pl. autók, PC-k, mobiltelefonok), alkalmazásspecifikus környezetekben találja meg a helyét. Sokak szerint ugyanis az MI súlypontja lassan áthelyződik a datacenterből az edge-re. Erre utal, hogy egyre többen és többet beszélnek az AI PC-kről, és ebbe az irányba viheti a piacot a fenntarthatóság iránti igény: a Hugging Face és a Carnegie Mellon Egyetem közös kutatása ugyanis kimérte (PDF), hogy a többcélú, generatív architektúrák nagyságrendekkel több energiát fogyasztanak, mint a feladatspecifikus rendszerek.

Cloud & big data

Máris megszűnik a ChatGPT automata modellválasztója az ingyenes felhasználásban

Nemcsak drága, hanem az OpenAi szerint nem is népszerű, így a bonyolultabb kérdésekre adott pontosabb válaszokhoz ismét manuális modellválasztásra lesz szükség.
 
Hirdetés

Az ötlettől az értékteremtésig – egy jól működő adattudományi szervezet alapjai

Miért bukik el annyi adattudományi kezdeményezés már az indulás után? A válasz gyakran nem az algoritmusok összetettségében, hanem az adatok minőségében és kezelésében keresendő. Stabil adatforrások, következetes feature-kezelés és egy jól felépített Feature Store nélkül a gépi tanulás ritkán jut el a valódi üzleti értékteremtésig.

Sok szervezet adatvezéreltnek tartja magát, mert van BI rendszere és heti dashboardja. A valóságban azonban ennél többről van szó; a kérdés ugyanis nem az, hogy van-e elég adat, hanem, hogy mennyire jól használják a döntések meghozatalához.

a melléklet támogatója a One Solutions

EGY NAPBA SŰRÍTÜNK MINDENT, AMIT MA EGY PROJEKTMENEDZSERNEK TUDNIA KELL!

Ütős esettanulmányok AI-ról, agilitásról, csapattopológiáról. Folyamatos programok három teremben és egy közösségi térben: exkluzív információk, előadások, interaktív workshopok, networking, tapasztalatcsere.

2026.03.10. UP Rendezvénytér

RÉSZLETEK »

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.