Mostanra több mint 300 vezető mesterségesintelligencia-kutató, illetve "jogi és politikai közösségek változatos szakértelemmel és érdeklődési körrel rendelkező tagjai" írták alá azt a nyílt levelet, amelyben változtatásokra szólítják a generatív MI-technológiákat fejlesztő cégeket a rendszereikhez való hozzáférés szabályozásában. Ennek célja a jóhiszemű kutatások védelme lenne az MI-rendszerek biztonságának és megbízhatóságának előmozdítására a milliók által használt eszközökben, amit jelenleg átláthatatlan vállalati szabályok akadályoznak a tesztelés lehetőségeinek korlátozásával.
Az aláírók szerint a rosszhiszemű szereplők visszaéléseitől védő protokollok a független auditokat is ellehetetlenítik, a kutatók pedig attól tartanak, hogy minimum letiltják a hozzáférésüket, de akár a bíróság elé is odarángatják őket, ha a gyártók jóváhagyása nélkül próbálják tesztelni az MI-modelleket. Ezért az OpenAI-nak, a Metának, az Anthropicnak, a Google-nek, a Midjourney-nek és más technológiai cégeknek címzett levélben olyan biztonságos kikötő (safe harbor) biztosítását kérik, amelynek keretei között jogi és műszaki szempontból is szabadon vizsgálhatnák a termékeiket.
A saját hibánkból sem tanulunk
Ahogy a beszámolók felidézik, a generatív mesterséges intelligenciát fejlesztő cégek tényleg egyre agresszívebb módon próbálják elejét venni a külső auditoknak. Az OpenAI például azzal érvel a New York Times elleni ügyében, hogy a kiadó csak a ChatGPT "hekkelésével" lehetett képes felderíteni a szerzői jogok esetleges megsértését. A Meta ugyancsak azzal módosította felhasználási feltételeit, hogy visszavonja a LLaMA 2 modell licencét, ha a felhasználó a szellemi tulajdont érintő problémékat támaszt a rendszer ki- és bemeteteire vonatkozóan, leszűkítve a vizsgált sebezhetőségek típusát.
Bár ezek az irányelvek általánosságban tiltják, hogy a szolgáltatásokat csalásra, plágiumra, zaklatásra vagy a választások befolyásolására használja valaki, a feltételek megsértéséért a fellebbezés lehetősége nélkül osztogatják a felfüggesztéseket és tiltásokat, miközben a független kutatások gyakran feltételezik a szabályok szándékos feszegetését. A nyílt levél szerzői arra figyelmeztetnek, hogy a generatív MI piacának szereplői a közösségi médiaplatformok hibáit ismétlik meg éppen, amelyek hasonlóképpen szabotálták az elszámoltatásukra irányuló kutatásokat, ennek eredménye pedig mindenki előtt ismert.
Dynatrace: a modern obszervabilitás pole pozíciójában
Akár a Formula-1-es boxutcában, akár az üzleti életben dolgozunk, egy apró hiba könnyen vészhelyzetet idézhet elő. Szerencsére erre van megoldás, ugyanis a Dynatrace és a hasonló obszervabilitási platformok éppen azért jöttek létre, hogy megelőzzék ezeket a kritikus szituációkat.
EGY NAPBA SŰRÍTÜNK MINDENT, AMIT A PROJEKTMENEDZSMENTRŐL TUDNI KELL!
Ütős esettanulmányok AI-ról, agilitásról, hibrid működésről, elosztott csapatokról, kulturális gapek kezeléséről. Exkluzív információk képzésekről, munkaerőpiacról, kereseti és karrierlehetőségekről.
2025.03.18. Symbol Budapest
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak