Az Amazon egyik belső csatornáján feltett kérdések nyomán a társaság egyik jogásza arra figyelmeztette az alkalmazottakat, hogy ne adjanak át a ChatGPT-re épülő alkalmazásokban bizalmas céges információt, beleértve azokat az amazonos kódokat is, amelyeken dolgoznak. A Business Insider által megszerzett képernyőképek alapján a vezető vállalati jogtanácsos azt javasolta a dolgozóknak, hogy kövessék a vállalat összeférhetetlenségi és titoktartási irányelveit, mert már előfordultak olyan esetek, amikor a ChatGPT válaszai gyanús egyezéseket mutattak az Amazon belső adataival.
Ez a magyarázat szerint azért lényeges, mert a bemeneti adatok a ChatGPT további iterációinak betanításában is hasznosulnak, a vállalat pedig érthetően el akarja kerülni, ha a kimenetek tartalmaznák ezeket a bizalmas információkat, vagy bármilyen okból szoros egyezést mutatnának azokkal. A lap beszámolója alapján az eszmecsere az egyik olyan új etikai problémát tükrözi, amelyik látványossá vált a ChatGPT hirtelen felfutásával, és számos iparágat forgathat fel egyre nyilvánvalóbban a művészetek, a média, a tudományos munka vagy az egészségügy területén.
A chatbot használati eseteit és azok következményeit tekintve tehát felmerül az a kérdés is, hogy miként osztja meg valaki a bizalmas vállalati adatokat a ChatGPT-vel, és azzal mihez kezd az OpenAI, az mesterséges intelligenciára épülő eszköz fejlesztője. Az Amazon esetében külön érdekes, hogy egyik fő versenytársa, a Microsoft jelentős összegeket fektetett be az OpenAI-ba, de a ChatGPT és más megoldások kapcsán sem teljesen átlátható az adatok felhasználása. A modellek széles körű elterjedésével pedig felmerül, hogy lehetséges-e a kinyerni belőlük bizalmas céges információt a megfelelően feltett kérdésekkel.
Ahhoz túl jó, hogy simán csak letiltsák
A cikkből kiderül, hogy az Amazon már belső intézkedéseket vezetett be a ChatGPT-re vonatkozóan: például a munkahelyi eszközökön való felhasználáskor egy figyelmeztető üzenet jelenik meg, amelyik arról tájékoztat, hogy a dolgozó egy harmadik féltől származó szolgáltatást készül felkeresni, amelyet az Amazon Security nem hagyott jóvá. A Busines Insidernek nyilatkozó alkalmazottak elmondták, hogy a korlátozás könnyen megkerülhető, vagyis egyelőre tényleg csak figyelmeztetésről van szó, dedikált szabályzatot pedig még nem láttak a ChatGPT belső használatára vonatkozóan.
A lap által megszerzett Slack-üzenetek szerint azonban az Amazonnál is vannak, akik programozási segédeszközként használják a gépi tanuló programot a kódsorok ellenőrzésére és javítására, mások pedig az interjúztatás során veszik igénybe. Az biztos, hogy a lehetőségeket mindenki izgalmasnak tartja, és mint kiderült, maga az Amazon is fejleszt hasonló technológiát az Alexa és a CodeWhisperer keretei között. Most mindeneesetre belső munkacsoportot hoztak létre a fejlett chat-MI hatásainak vizsgálatára, amely már megállapította, hogy a ChatGPT jó munkát végez az AWS-támogatásról szóló kérdések megválaszolásában, képzési anyagok készítésében vagy az ügyfelek vállalati céljainak megfogalmazásában.
Ahogy a Business Insidernek nyilatkozó szakemberek is megerősítették, a ChatGPT fokozott munkahelyi használata komoly kérdéseket vet fel az eszközzel megosztott adatokról– különösen, hogy az OpenAI szolgáltatási feltételei megkövetelik a felhasználóktól, hogy beleegyezzenek a ChatGPT által generált összes bemenet és kimenet felhasználásába. Bár a szerződés elvileg arra is kitár, hogy azokból eltávolítanak minden személyazonosításra alkalmas információt, egyelőre lehetetlen átlátni, hogy ez mi jelent a gyakorlatban. A vállalatok szellemi tulajdona ráadásul nem is minősül ilyen információnak. Az alkalmazottak viszont a jelek szerint az Amazonnál is imádják a ChatGPT-t, és a riport alapján sokan fejezték ki a hajlandóságukat, hogy csatlakozzanak a hasonló szolgáltatásokat fejlesztő belső csapatokhoz.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak