Az Anthropic Claude nevű chatbotja nem csak erős, de fejlesztői új megközeltéssel próbálják biztosítani az etikus működését is.
Hirdetés
 

Az OpenAI korábbi szakemberei által 2021-ben alapított Anthropic olyan mesterségesintelligencia-modelleket fejleszt, amelyek működése hasonló a ChatGPT-hez, de a cég saját chatbotja, a Claude már az alapoktól beépített etikai korlátokkal rendelkezik. Ezek az alapszabálynak vagy alkotmánynak (constitution) nevezett előírások meghatározzák, hogy a programok mit tekintenek jónak vagy rossznak, és gyakorlatias, mérnöki megközelítéssel próbálnak választ találni az egyre erősebb MI-rendszerekkel kapcsolatos aggodalmakra – olvasható a Wired beszámolójában. A lap az Anthropic egyik alapítóját idézi, aki szerint az aggodalmak tényleg megalapozottak, de a maguk részéről igyekeznek pragmatikus megközelítést alkalmazni.

Ennek értelmében nem próbálják konkrétan meghatározni, mit tehet vagy nem tehet meg a mesterséges intelligencia, hanem az ENSZ Emberi Jogok Egyetemes Nyilatkozatából származó irányelveket alkalmaznak, amelyeket már a Google DeepMind is javasolt, sőt még a Apple alkalmazásfejlesztőire vonatkozó szabályainak is átvették bizonyos elemeit a sértő, érzéketlen, felkavaró vagy ijesztő tartalmakról. Az Anthropic múlt heti közleménye szerint ezzel csökken a valószínűsége, hogy a robotok nem kívánatos kimeneteket termeljenek. Az alapszabályok olyan kitételeket tartalmaznak, mint hogy a chatbotnak törekednie kell az életet, a szabadságot és a személyes biztonságot leginkább támogató válaszok kijelölésére.

Kicsi, de fontos lépés lehet

Az Anthropic megközelítésének értelmében a modelleket először ellátják példákkal az alapelveknek megfelelő és nem megfeleklő váalszokkal, majd egy egy másik MI-modellt használnak arra, hogy még több elfogadható választ generáljon, és az emberi visszajelzések helyett ezt használják a betanításhoz. A ChatGPT és társainak esetében ugyanis a problémák egyik fő forrása, hogy emberek értékelik a nyelvi modell válaszainak minőségét. Bár ez a technika valóban segít a rendszerek működésének kiszámíthatóbbá tételében, nagy mennyiségben kell feldolgozni a mérgező vagy alkalmatlan reakciókat, és azokhoz az értékekhez sem rendel pontos meghatározásokat, amelyekre a mesterséges intelligenciának reflektálnia kellene.

A Wired cikkében megszólaló egyik szakértő jó irányba tett lépésnek tartja az Anthropic megközelítését, amelynek révén úgy lehet egyszerűbben méretezni a visszacsatoláson alapuló képzést, hogy az adatokat címkéző emberek sok ezer órányi kártékony anyagon kellene átrágniuk magukat. Különösen fontos, hogy a Claude működésére vonatkozó szabályokat nem csak saját fejlesztői, hanem a kívülállók is ellenőrizhetik, szemben azokkal az utasításokkal, amelyeket a "megerősítő tanulás emberi visszajelzéssel" (RLHF) elvét alkalmazó modellek kapnak. Persze a módszer önmagában nem teszi tévedhetetlenné a programokat, különösen, hogy a valós helyzetek könnyen teremthetnek konfliktusokat az egyes szabályok között.

Részletek a Claude bemutatásában az Anthropic oldalán »

Cloud & big data

Kiderült, hogy a legjobb MI-ügynök is tök béna lenne távmunkásnak

Egy frissen közölt kutatásban azt próbálták értékelni, hogy a mesterséges intelligencia ágensei mennyire képesek automatizálni a gazdaságilag értékes feladatokat. Az eredmények alapján nem valami fényesen.
 
Hirdetés

Az end-to-end védelmeké a jövő

A kódbiztonság integrálásával új fejlődési szakaszukba léptek a felhős védelmi platformok. Werner Obringot, a Clico Hungary cloud security architektjét kérdeztük a miértekről és hogyanokról.

A biztonsági megoldásszállítók érthető módon egy irányba mozdulnak, hiszen ugyanazoknak a támadásoknak az ellenszerét keresik. Megoldási javaslataikban sokszor csak árnyalatnyiak a különbségek, ami egyszerre könnyíti és nehezíti a választást.

a melléklet támogatója a Clico Hungary

Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2025 Bitport.hu Média Kft. Minden jog fenntartva.