Egyes becslések szerint 2025-re az új online tartalmaknak már több mint 90 százalékát valamilyen mesterséges intelligencia állíthatja majd elő, ami számtalan súlyos problémát okozhat. Ilyen mondjuk az MI-modellek összeomlása: mivel a robotoknak nem erősségük az általuk feldolgozott információ értelmezése, az egymást tanító rendszerek olyan degeneratív folyamatot indíthatnak be, ami visszafordíthatatlanul tönkreteszi az internetes információs teret. Ezt pedig tovább súlyosbíthatják az esetleges rosszhiszemű beavatkozások, vagyis a betanításra használt adatok "mérgezése" azzal a céllal, hogy megváltozzon a modellek viselkedése.
Az Axios riportja a mesterséges intelligenciával kapcsolatos félelmek közül most azt a jelenséget is kiemeli, hogy mennyire élethűen dolgozik a tartalomgenerátorok legújabb hulláma. A cikk alapján a technológia következő iterációját fejlesztő embereket egyre jobban foglalkoztatja, hogy a belső tesztek során már a szakértők sem feltétlenül tudják megmondani, valódi vagy hamis képekkel van dolguk. A lap által megszólaltatott vezető fejlesztő szerint senki sem számított rá, hogy az ilyen szintű hatékonyság ilyen hamar lehetővé válik, ami legalábbis nyugtalanító dolog a közelgő amerikai elnökválasztás és a nemzetközi konfliktusok közepette.
A vízjelezés ide már kevés lesz
A bennfentesek a beszámoló szerint arra számítanak, hogy 2024-re gyakorlatilag bárki használhatja vagy megvásárolhatja majd ezeket a technológiákat, ráadásul a közösségimédia-szolgáltatók dezinformációs politikája sem fejlődik megfelelően (sőt egyes esetekben éppenséggel visszafelé fejlődik). Bár a mesterséges intelligenciáról szóló világvége-jóslatokat érdemes a megfelelő távolságtartással kezelni, az is igaz, hogy a jelenegi biztonsági készségek egyáltalán nem működnek megfelelően: ahogy október elején kiderült, egyetemi kutatók sorra feltörték a külőnféle vízjelező megoldásokat, amelyek sebezhetősége amúgy sem volt újdonság.
A Wired vonatkozó összeállításából ráadásul kiderült, hogy a rosszindulatú szereplők nem csak kikerülni képesek a szemmel nem látható vízjelezést, de akár hozzá is adhatnak ilyen vízjeleket az eredeti, emberek által készített képekhez, hamis pozitívokat generálva a vizsgálatok során. Végül ott van egy kevésbé technológiai jellegű probléma is, mégpedig az, amikor egyszerűen nem érdekel majd senkit, hogy jelölve vannak-e a mesterséges intelligenciával manipulált felvételek. Mint kiderült, az Adobe például MI-vel generált képeket árul a gázai konfliktussal összefüggésben, amelyeket sokan anélkül osztanak meg, hogy jelölnék eredetüket.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak