A 2015-ben életre hívott, nonprofit OpenAI projekt rendszeresen felbukkan a hírekben: legutóbb mi is beszámoltunk a kutatók DOTA 2 világbajnokságra készülő MI-rendszeréről. A szervezet célja a mesterséges intelligencia fejlődésével az emberiség jövőjét fenyegető, egyre erősödő kockázatok mérséklése, ezzel párhuzamosan pedig a technológiák előnyeinek minél szélesebb körben való érvényesítése. Alapítói között a legismertebb név Elon Musk, a Tesla és a SpaceX vezetője, de az együttműködésben más, a mesterséges intelligencia kutatásában szintén érdekelt IT-piaci szereplő is részt vesz.
A nyílt MI létrehozását célzó kutatóvállalat mögé milliárd dolláros nagyságrendű forrás gyűlt össze, és már a Microsofttal is megállapodott az Azure felhőszolgáltatások felhasználásáról a legtöbb, nagy volumenű kísérletéhez – ezzel a Microsoft Azure N-sorozatú virtuális gépeinek (Azure N-Series Virtual Machines) korai felhasználója volt. Az OpenAI dedikált küldetése, hogy minél több kutatóval és intézménynel lépjen nyílt kooperációra, ehhez pedig saját szabadalmait és kutatási eredményeit is megnyitja, és elérhetővé teszi mások számára.
A kamu hírektől a hamis irodalmi művekig
Legalábbis elvileg: a társaság egyik fejlesztése ugyanis annyira jól sikerült, hogy azt a lehetséges kockázatok mérlegelését követően egyelőre megtartják maguknak, és további vizsgálatokat folytatnak annak meghatározására, hogy a technológia mire lehet képes a rosszindulatú felhasználásban. Egy GPT2 néven hivatkozott rendszerről van szó, amely egyetlen (akár töredékse) mondat bevitelére van szüksége ahhoz, hogy azt egy elfogadható minőségű szöveggé egészítse ki. Ezt szemléletesen bemutatja a Guardian rövid videója, amelyen mások mellett a brexittel kapcsolatos félmondatból is szabályos újságcikk lesz, egy nem létező szóvivő nem létező nyilatkozatát is idézve:
A lapnak az OpenAI kutatási vezetője elmondta, hogy a GPT2 modellje nagyságrendi előrelépés a hasonló MI-modellekhez képest, és a betanításához felhasznált adatkészlet is egészen elképesztő volt: eddig 40 gigabájtnyi szöveges állományon rágta át magát, benne 10 millió olyan Reddit-cikkel, amelyet legalább három különböző felhasználó ítélt hasznosnak. Összehasonlításképpen, ez a nagyságrend a szövegek hosszát tekintve megfelel a Moby Dick című regény 35 ezer példányának. A mennyiség ebben az esetben azt is magával hozta, hogy a rendszer által előállított szöveg minősége ugrásszerűen javult a korábbi megoldásokhoz képest.
A Guardian oldalán megszólaló Dario Amodei kifejtette, hogy egyelőre ők maguk sincsenek teljesen tisztában a modell lehetőségeivel, és folyamatosan vizsgálják, hogy az mire lehet képes. Ezt azért tartják szükségesnek, mert sokan vannak, akik a kutatóknál lényegesen kreatívabbak egy-egy technológia rossz célokra való felhasználásában, a visszaélések lehetőségét pedig ebben az esetben annyira ijesztőnek tartják, hogy a GPT2 egyelőre nem válik az OpenAI közkinccsé tett kutatásainak elemévé.
A rosszindulatú felhasználásra a fejlesztők egy nagyon egyszerű példát is hoztak: a GPT2 néhány egyszerű változtatás után alkalmassá vált arra, hogy elkezdje önteni magából a pozitív vagy negatív felhasználói értékeléseket a megfelelő termékekről. Ugyanilyen módon alkalmas lehet rá, hogy a levélszemétben megjelenő üzenetek szintet lépjenek vele, és akkor nem beszéltünk a manapság legfontosabbnak tartott problémák egyikéről, az álhírek (fake news) terjesztéséről. Ez utóbbira az internetről gyűjtütt anyagok feldolgozása úgy teheti képessé a rendszert, hogy futószalagon termelje a megosztott bejegyzéseket a szektás politikai tartalmaktól kezdve az összeesküvés-elméletekig.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak