Az Amazon Mechanical Turk platformja 2005 óta etszi lehetővé az embereknek, hogy némi pénzt keressenek nem túl bonyolult, de emberi intelligenciát igénylő feladatok elvégzésével, mint amilyen az adatok ellenőrzése vagy egyszerű átíratok készítése. A szolgáltató célja az időigényes manuális projektek felbontása kisebb, jobban kezelhető feladatokra, amelyeket ki lehet osztani az interneten keresztül. Nagy meglepetést nem okoz, hogy a crowdsourcing alkalmazást a mesterségesintelligencia-rendszerek betanításakor felmerülő munkákhoz is használják, azonban a generatív MI és az intelligensnek mondott chatbotok megjelenése ezeket a folyamatokat is felforgatta.
A TechCrunch a Lausanne-i műszaki egyetem kutatóira hivatkozva számolt be róla, hogy a Mechanical Turk dolgozóinak jelentős része már most is az olyan nagy nyelvi modelleket (LLM) használja munkája automatizálására, mint amilyen a villámkarriert befutott ChatGPT. Vagyis a szándékoltan emberektől származó bemenetek egyik fontos forrása már a gépek által előállított kimenetekekre épül – más szóval, a hivatkozott becslések szerint a Mechanical Turk online munkaerejének legalábbb 33, de akár 46 százaléka is LLM-eket használ a szövegelőállítási feladatok során, ami a jövőben csak növekedni fog az MI-chatbotok egyre erősebbé és népszerűbbé válásával.
Gyorsan haladunk a rossz irányba
Noha a mesterségesintelligencia-rendszerek egyik csábító képessége az alantas feladatok automatizálása lenne, ebben az esetben az a helyzet áll elő, hogy MI-modellek képeznek más MI-modelleket, ami kézenfelkvő módon az információ egyre súlyosabb torzulásához vezet. Ahogy korábban a Bing és a Bard chatbotok apró balesete nyomán írtuk, a szóban forgó programok nem képesek hatékonyan elválasztani a tényeket a fikciótól. Amikor pedig egymástól tanulják a félreértelmezett, kitalált vagy szándékosan összezavart dolgokat, akkor a "tükörcsarnoknak" is nevezett hatás miatt utólag követhetetlen módon degradálhatják az internetes információs teret.
Mivel a Mechanical Turk dolgozói az elvégzett feladatok után kapnak fizetést, ezek a díjazások pedig ritkán nevezhetők magasnak, kézenfekvő, hogy használatba vesznek minden olyan eszközt, ami felgyorsíthatja vagy automatizálhatja a munkájukat. A TechCrunc szerint ráadásul az Amazon nem is gyakorol valami szigorú felügyeletet a platform fölött, így a kutatók is teljes joggal aggódnak amiatt, hogy egyre nehezebb megkülönböztetni az emberek és a mesterséges intelligencia által generált adatokat. A dolog még szebb lesz, ahogy fejlődnek a szöveg mellett képes, videós vagy hangalapú be- és kimeneteket támogató (multimodális) modellek, amelyek nemcsak szöveget, hanem kép- és videóbevitelt és -kimenetet is támogatnak, így ideje lenne új módszereket találni az adatok forrásának biztosítsára.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak