Sőt minket is magukkal rántanak, ha nem figyelünk oda. Egy új kutatás az ellenőrizetlen generatív folyamatok kockázataira hívja fel a figyelmet, és javaslatokat is tesz a szükséges stratégiák kidolgozására.

A nagy nyelvi modellek (LLM-ek) és más transzformátor architektúrák betanításához használt adatokat kezdetben emberek termelik és állították össze könyvekből, cikkekből, fényképekből és más forrásokdól dolgozva, de ahogy egyre többen fordulnak a mesterséges intelligencia felé a tartalom előállításában, a modellek képzésében is óhatatlanul megjelennek az MI által generált tartalmak – sokszor akár úgy is, hogy az ezért felelős emberek próbálják megkönnyíteni saját munkájukat az új eszközökkel. Márpedig a robotoknak nem erősségük az általuk feldolgozott információ értelmezése, és az újabban közzétett figyelmeztetések szerint ez a gyakorlat visszafordíthatatlan módon teheti tönkre az internetes információs teret, nem beszélve az esetleges rosszhiszemű beavatkozásokról.

Kutatók egy csoportja a közelmúltban publikált egy tanulmányt a jelenségről, amelynek fő megállapítása éppen az, hogy az MI-modellek által generált tartalom felhasználása más modellek tanításában irreverzibilis hibákat okoz az eredményül kapott rendszerekben. A VentuteBeat beszámolója alapján a szöveg-szöveg és kép-kép generátorokat vizsgálva arra jutottak, hogy egy degeneratív folyamatról van szó, ami ideális körülmények között is a modellek gyors összeomlását okozza. Vagyis ha egy MI képzési modellje több másik MI által létrehozott adatnak van kitéve, akkor az egyre kevesebb "nem hibás változatosságot" produkál a kimeneteiben. A kutatók szerint az óceánok szeméttel és a légkör szénvegyületekkel való beszennyezése után most az internetet szórjuk tele halandzsával.

Nem csak a macskák fognak besárgulni

A tanulmány egyik fontos észrevétele, hogy a dolog megnehezíti az újabb modellek betanítását az internetről szerzett adatokkal, ami előnyös helyzetbe hozza a már a pályán lévő cégeket, vagy azokat, amelyek érdemben szabályozzák az emberi interfészekhez való hozzáférést. A tudósok szerint ha egy MI-modellt 10 kék szőrű és 90 sárga szőrű macska képét tartalmazó adatkészleten tanítanak be, akkor az MI elkezdi a kék macskákat is sárgásabbnak mutatni, amelyek így végül bezöldülnek, majd az egymást követő ciklusok során sárgává változnak, a kisebbségi adatjellemzők elvesztése pedig a modell összeomlásához vezet. Ráadásul az MI, ha arra kényszerítik, hogy ne adjon túl sok ismétlődő választ, akkor annak elkerülésére egyszerűen elkezd hibás válaszokat kitalálni.

Könnyű belátni, hogy mindez a macskák színén túl nagyon komoly következményekkel járhat a nemen, etnikai hovatartozáson vagy más érzékeny tulajdonságokon alapuló megkülönböztetésre nézve. A kutatók szerint még ha az eredeti, emberek által válogatott adatok 10 százalékát fel is használják az MI következő generációinak a képzésében, a csődöt akkor sem lehet elkerülni, legfeljebb később válik nyilvánvalóvá. Így szükségesnek tartják az első, eredeti adatkészletek másolatainak megőrzését, vagy új, tisztán emberek által generált adatokat vezetnének vissza a tanítási folyamatba. Ehhez azonban valamilyen általános címkézési mechanizmusra lenne szükség a tartalomgyártók részéről, és az MI-fejlesztőknek is különbséget kellene tenniük az adatok között.

Mindez természetesen nem triviális, és jelenleg nem is létezik erre irányuló, megbízható vagy nagyszabású online erőfeszítés. A kutatók javaslatainak részletes ismertetése a VentureBeat oldalán olvasható »

Cloud & big data

A Tesla bármelyik másik márkánál több halálos balesetben érintett

Az elmúlt években gyártott járműveket vizsgálva kiderült, hogy az amerikai utakon a Teslák az átlagosnál kétszer gyakrabban szerepelnek végzetes ütközésekben a megtett mérföldek arányában.
 
Ezt már akkor sokan állították, amikor a Watson vagy a DeepMind még legfeljebb érdekes játék volt, mert jó volt kvízben, sakkban vagy góban.
Amióta a VMware a Broadcom tulajdonába került, sebesen követik egymást a szoftvercégnél a stratégiai jelentőségű változások. Mi vár az ügyfelekre? Vincze-Berecz Tibor szoftverlicenc-szakértő (IPR-Insights) írása.

Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak

Különösen az early adopter vállalatoknak lehet hasznos. De különbözik ez bármiben az amúgy is megkerülhetetlen tervezéstől és pilottól?

Sok hazai cégnek kell szorosra zárni a kiberkaput

Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizennegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2024 Bitport.hu Média Kft. Minden jog fenntartva.