Az OpenAI az eddigi gyakorlattal szemben nem teszi közzé egyik új fejlesztését, amíg nem vizsgálta meg alaposabban, hogy azt milyen visszaélésekre ad lehetőséget.

A 2015-ben életre hívott, nonprofit OpenAI projekt rendszeresen felbukkan a hírekben: legutóbb mi is beszámoltunk a kutatók DOTA 2 világbajnokságra készülő MI-rendszeréről. A szervezet célja a mesterséges intelligencia fejlődésével az emberiség jövőjét fenyegető, egyre erősödő kockázatok mérséklése, ezzel párhuzamosan pedig a technológiák előnyeinek minél szélesebb körben való érvényesítése. Alapítói között a legismertebb név Elon Musk, a Tesla és a SpaceX vezetője, de az együttműködésben más, a mesterséges intelligencia kutatásában szintén érdekelt IT-piaci szereplő is részt vesz.

A nyílt MI létrehozását célzó kutatóvállalat mögé milliárd dolláros nagyságrendű forrás gyűlt össze, és már a Microsofttal is megállapodott az Azure felhőszolgáltatások felhasználásáról a legtöbb, nagy volumenű kísérletéhez – ezzel a Microsoft Azure N-sorozatú virtuális gépeinek (Azure N-Series Virtual Machines) korai felhasználója volt. Az OpenAI dedikált küldetése, hogy minél több kutatóval és intézménynel lépjen nyílt kooperációra, ehhez pedig saját szabadalmait és kutatási eredményeit is megnyitja, és elérhetővé teszi mások számára.

A kamu hírektől a hamis irodalmi művekig

Legalábbis elvileg: a társaság egyik fejlesztése ugyanis annyira jól sikerült, hogy azt a lehetséges kockázatok mérlegelését követően egyelőre megtartják maguknak, és további vizsgálatokat folytatnak annak meghatározására, hogy a technológia mire lehet képes a rosszindulatú felhasználásban. Egy GPT2 néven hivatkozott rendszerről van szó, amely egyetlen (akár töredékse) mondat bevitelére van szüksége ahhoz, hogy azt egy elfogadható minőségű szöveggé egészítse ki. Ezt szemléletesen bemutatja a Guardian rövid videója, amelyen mások mellett a brexittel kapcsolatos félmondatból is szabályos újságcikk lesz, egy nem létező szóvivő nem létező nyilatkozatát is idézve:
 


A lapnak az OpenAI kutatási vezetője elmondta, hogy a GPT2 modellje nagyságrendi előrelépés a hasonló MI-modellekhez képest, és a betanításához felhasznált adatkészlet is egészen elképesztő volt: eddig 40 gigabájtnyi szöveges állományon rágta át magát, benne 10 millió olyan Reddit-cikkel, amelyet legalább három különböző felhasználó ítélt hasznosnak. Összehasonlításképpen, ez a nagyságrend a szövegek hosszát tekintve megfelel a Moby Dick című regény 35 ezer példányának. A mennyiség ebben az esetben azt is magával hozta, hogy a rendszer által előállított szöveg minősége ugrásszerűen javult a korábbi megoldásokhoz képest.

A Guardian oldalán megszólaló Dario Amodei kifejtette, hogy egyelőre ők maguk sincsenek teljesen tisztában a modell lehetőségeivel, és folyamatosan vizsgálják, hogy az mire lehet képes. Ezt azért tartják szükségesnek, mert sokan vannak, akik a kutatóknál lényegesen kreatívabbak egy-egy technológia rossz célokra való felhasználásában, a visszaélések lehetőségét pedig ebben az esetben annyira ijesztőnek tartják, hogy a GPT2 egyelőre nem válik az OpenAI közkinccsé tett kutatásainak elemévé.

A rosszindulatú felhasználásra a fejlesztők egy nagyon egyszerű példát is hoztak: a GPT2 néhány egyszerű változtatás után alkalmassá vált arra, hogy elkezdje önteni magából a pozitív vagy negatív felhasználói értékeléseket a megfelelő termékekről. Ugyanilyen módon alkalmas lehet rá, hogy a levélszemétben megjelenő üzenetek szintet lépjenek vele, és akkor nem beszéltünk a manapság legfontosabbnak tartott problémák egyikéről, az álhírek (fake news) terjesztéséről. Ez utóbbira az internetről gyűjtütt anyagok feldolgozása úgy teheti képessé a rendszert, hogy futószalagon termelje a megosztott bejegyzéseket a szektás politikai tartalmaktól kezdve az összeesküvés-elméletekig.

Cloud & big data

A zsarolóprogramoktól félnek a legjobban a biztonsági vezetők

A ransomware támadások mára vezető IT-biztonsági kockázattá váltak, az idén várhatóan még tovább növekszik az incidensek száma és a célpontok köre is.
 
Jó hír: ehhez rendelkezésre állnak a megfelelő eszközök. Az általánossá váló távmunka még jobban ráirányította a figyelmet, hogy az adatok biztosítása nem csak a cloud szolgáltatók, hanem legalább akkora részben a megrendelők felelőssége is.
Nem általában a távmunkáé, hanem a mostani tipikus távmunka-helyzeteké. A szervezetek arra nem voltak felkészülve, hogy mindenki otthonról dolgozik.

Alapjaiban kell megújítani a biztonságról kialakított felfogásunkat

Tavaly január végétől megszűnt a Java SE 8 ingyenes frissítése, és a Java SE 11 sem használható ingyenesen üzleti célra. Tanácsok azoknak, akik még nem találtak megoldást. Hegedüs Tamás (IPR-Insights) írása.
Ön sem informatikus, de munkája során az információtechnológia is gyakran befolyásolja döntéseit? Ön is informatikus, de pénzügyi és gazdasági szempontból kell igazolnia a projektek hasznosságát? Mi közérthető módon, üzleti szemmel dolgozzuk fel az infokommunikációs híreket, trendeket, megoldásokat. A Bitport tizenegyedik éve közvetít sikeresen az informatikai piac és a technológiát hasznosító döntéshozók között.
© 2010-2021 Bitport.hu Média Kft. Minden jog fenntartva.