Egy amerikai cég felfedezte az MI-modellek teremtette piaci rést. Olyan szolgáltatást kínál, amivel használati esetekhez lehet modellt választani.

Egy amerikai cég elkészítette az első valóban használható eszközt, amivel mérni lehet az MI-modellek teljesítményét különböző használati eseteknél. A monitoring amúgy nem idegen a New York-i székhelyű Datadogtól: eddig FinOps szemléletű dashboardokat fejlesztett felhőszolgáltatásokhoz, melyeken nemcsak a költségeket ellenőrizhetik az IT-vezetők, hanem még a fejlesztőknek is rengeteg támpontot ad például a szerverek kihasználtságáról, az adatok áramlásáról vagy a különböző szolgáltatások biztonsági kockázatairól.

A mesterséges intelligencia most már mindenütt megjelent: a Windowsban, az Office-termékekben, a Google Workspace-ben, a Pixel telefonokban, a Facebookon, a LinkedInen és így tovább, és ebben a Datadog meglátott egy új piaci rést. Hogyan lehet eldönteni, hogy melyik MI-modell jó, és melyik nem alkalmas bizonyos használati esetekre? Az augusztusban bemutatott és a fejlesztő cég néhány ügyfelénél bétában futtatott LLM Observability (vagy LLM Obs), ahogy neve is mutatja, egyelőre a nagy nyelvi modellekre (LLM, large language model) koncentrál.

A mérőeszköz a használt modell és a felhasználókkal interakcióba lépő chatbot közé ékelődik, és alapvetően a modell működését monitorozza. Méri a teljesítményét (pl. válaszidő), a minőségét (felhasználói visszajelzésekre támaszkodva), de még a futtatás költségeire vonatkozóan is ad információkat az alapján, hogy az LLM-szolgáltatók mekkora díjat számítanak fel válaszonként. A rendszer naplózza a felhasználói interakciókat, így azt is, amikor annyira elégedetlenek, hogy egy párbeszéd kellős közepén egyszerűen kilövik a chatbotot.

Az adatok alapján gyorsan azonosíthatók az LLM-mel kapcsolatos problémák (kiugró modellköltség, teljesítménycsökkenés, hallucináció stb.). De a Datadog tovább is megy ennél: mérőeszközével összehasonlíthatók adott használati esetekre a különböző MI-modellek akár költségoptimalizálási céllal is.

Visszamentek a forráshoz

A fejlesztésekhez a cégnek sikerült megfelelő embert is találnia: Junaid Ahmed korábban 15 évet húzott le a Microsoftnál, utána pedig két évet az Apple-nél, és az utóbbi években mindenkét cégnél a mesterséges intelligencia és a gépi tanulás alkalmazásokba történő integrálásán dolgozott. Az LLM Obs fejlesztésénél az a meggyőződése vezette, hogy az LLM-ek épp olyan általánosan elterjedt eszközök lesznek, mint mondjuk ma a táblázatkezelők vagy a szövegszerkesztők, ám azoknál specifikusabbak.

Ha a felhasználók (alapvetően vállalatok) el akarnak igazodni a kínálatban, kellenek olyan mérőeszközök, melyek alapján a vállalatok el tudják dönteni, hogy az általuk használt modellek mennyire működnek abban a környezetben, amelyben az adott vállalat használná, nyilatkozta a közelmúltban Junaid Ahmed.

Az LLM Obs elemzései eredményeit egy grafikusan felületen jeleníti meg, amelyen azonnal látható, hogy melyik modell melyik felhasználási esetnél teljesít a legjobban. Azt egyébként Ahmed is elismerte, hogy a projekt még gyerekcipőben jár. "A mesterséges intelligenciák tesztelése jelenleg nem jelent számunkra valódi bevételi forrást. De a jövőben nagy üzleti területté válhat." A legjobb esetben a Datadogéhoz hasonló programok segíthetnek az algoritmusoknak abban, hogy értelmesebb válaszokat adjanak.

Cloud & big data

Több mint félszázezer műholddal sűrítené az égboltot Bezos cége

A Blue Origin amerikai hatóságokhoz beadott kérelme szerint akár 51 600 szatellitből is állhat a vállalt tervezett adatközpontos űrflottája.
 

CIO kutatás

Merre tart a vállalati IT és annak irányítója?

Hiánypótló nagykép a hazai nagyvállalati informatikáról és az IT-vezetőkről: skillek, felelősségek, feladatkörök a múltban, a jelenben és a jövőben.

Töltse ki Ön is, hogy tisztábban lássa, hogyan építse vállalata IT-ját és saját karrierjét!

Az eredményeket május 8-án ismertetjük a 17. CIO Hungary konferencián.

LÁSSUNK NEKI!

Hirdetés

HPE Morpheus VM Essentials: a virtualizáció arany középútja

Minden, amire valóban szükség van, ügyfélbarát licenceléssel és HPE támogatással - a virtualizációs feladatok teljes életciklusát végigkíséri az EURO ONE Számítástástechnikai Zrt.

A VMware felvásárlása és licencelési gyakorlatának átalakítása erősen rányomta a bélyegét az adatközponti infrastruktúrára: a korábban kiszámítható alap bizonytalanná és gyakran költségesebbé vált.

a melléklet támogatója az EURO ONE

Egy kormányrendelet alapjaiban formálják át 2026-tól az állami intézmények és vállalatok szoftvergazdálkodási gyakorlatát.

Projektek O-gyűrűje. Mit tanulhat egy projektvezető a Challenger tragédiájából?

A Corvinus Egyetem és a Complexity Science Hub kutatói megmérték: a Python kódok közel harmadát ma már mesterséges intelligencia írja, és ebből a szenior fejlesztők profitálnak.

Rengeteg ország áll át helyi MI-platformra

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2026 Bitport.hu Média Kft. Minden jog fenntartva.