Úgy tűnik, az nem megoldás, ha az algoritmusok előítéletességét egy nagy adag ellenirányú lökettel próbáljuk kompenzálni.

Újabb kínos epizóddal bővült a mesterséges intelligencia baklövéseinek egyre csak bővülő gyűjteménye. Ezúttal a Google üdvöskéje, a nemrégiben csúcstermékként beállított Gemini járt pórul. Megint.

Az már a ChatGPT berobbanása előtt sok évvel is tudott volt, hogy az algoritmusok hajlamosak nagyon rossz, vagy éppen szélsőséges eredményeket produkálni pusztán azért, mert a tanításukra felhasznált minta nem megfelelően volt összeválogatva, vagy éppen az emberi fejlesztőkben (akár csak tudatt alatt) meglévő előítéletesség szivárgott át az MI "gondolkodásába".

Ezért fordulhatott elő, hogy a képgeneráló algoritmusok nagyvállalati vezetőként rendszerint fehér férfiakat alkottak, míg a munkanélküliek ábrázolásakor gyakran érkezett színesbőrű személy megoldásként.  

Az IBM például már 2018-ban kihozott egy az algoritmusok előítéletességét monitorozó megoldást, de a jelek szerint a problémát azóta se sikerült megnyugatótan kezelni.

Van képe hozzá...

A szöveges utasításokból többek között képeket is generáló Google-modellről is elég gyorsan kiderült, hogy sok esetben teljesen használhatatlan végterméket készít. Ez esetben azonban a sztereotípia ellentétéről, pontosabban annak szélsőséges túlkompenzálásáról van szó.

 

 

A fentiekhez hasonló posztok számolatlanul találhatók a neten, amelyekben az internetezők arra igyekeznek rávilágítani, hogy a Google mesterséges intelligenciáját szinte képtelenség rávenni arra, hogy fehér bőrű embereket alkosson (ez a posztoló egyébként korábban a keresőóriás alkalmazottja volt). Teljesen mindegy, hogy angol, egyesült államokbeli, vagy éppen ausztrál nők megalkotására kérjük a Geminit, az jó eséllyel afrikai vagy ázsiai jegyekkel rendelkező arcokat ad megoldásként.

A témát különösen az amerikai jobboldal karolta fel örömmel, hiszen általános vélekedés körükben, hogy más nagy technológiai cégekhez hasonlóan a Google is javíthatatlanul liberális. A vállalat esetleges védekezését nem teszi könnyebbé az sem, hogy kiderült, generatív algoritmusa második világháborús német katonák címszóval nagy kedvel gyárt ázsiai és fekete bőrű "történelmi" figurákat. Sőt, a Gemini értelmezésében az USA alapító atyái között indiánok, afroamerikaiak és nők is voltak.
 


Az egyre kínosabb példákat aztán viszonylag gyorsan megelégelte a Google. Első körben letiltotta az érzékenynek bizonyult utasítások végrehajtását. Hosszabb távon pedig ígéretet tett rá, hogy mérnökei megoldják, hogy az MI ne ontsa magából a sületlenségeket.

Igaz ugyan, hogy ez eddig senkinek nem sikerült, de a remény hal meg utoljára...

Cloud & big data

Megint hirdetésben froclizza a Samsung az Apple-t

A dél-koreai óriásnál szinte már tradíció, hogy reklámok formájában mutatnak rá legfőbb riválisuk egy-egy gyenge pontjára.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.