A Google egy tavasszal publikált tanulmányban mutatta be a szövegből élethű képeket gyártó Imagen képgenerátort, amelynek képességeiről azóta a felhasználók is megbizonyosodhattak. Ennek mozgóképes változata, az Imagen Video október elején mutatkozott be, amikor néhűnx nappal ezelőtt újabb cikk jelent meg a mesterséges intelligencia elképesztő szöveg-videó generálási képességeiről. Ennek alapján az algoritmus már 3D-s modelleket és rövid animációkat is képes alkotni, az anyagból azonban az is kideül, hogy a gyártó "számos fontos biztonsági és etikai kihívásra" hivatkozva egyelőre nem kívánja nyilvánossá tenni a megoldást.
Eszerint az Imagen Video rendszerét, illetve annak szöveges enkóderét a problémásnak nevezett adatokra is betanították, és bár a Google belső tesztjei szerint a nyílt és erőszakos tartalom nagy része azonosítható, továbbra is léteznek olyan "társadalmi elfogultságok és sztereotípiák", amelyeket nehéz felismerni és kiszűrni. Egyszerűbben fogalmazva, az MIsegítségével olyan videókat lehet generálni, amelyeknek szexuális, erőszakos vagy rasszista tartalma nem illik a techvállalat imázsához, így a modellt és annak forráskódját nem teszik közzé, ameddig ezen a területen nem sikerül megnyugtató megoldásokat találniuk.
A kockázatot ismerik, a megoldást még nem
A kommentárok szerint ez az újabb eset is rávilágít a gépi tanulás izgalmas valóságára, amennyiben a kutatók nem ritkán rendkívüli eredményeket produkáló modelleket fejlesztenek (az Imagen képei már a korábbi bemutatók alapján is lenyűgözőek), de nem igazán boldogulnak a lehetséges kimenetek ellenőrzésével. Ehhez hasonló problémákat más neurális hálózatokkal kapcsolatban is tapasztaltak, ahol pontosan azok a jelenségek jöttek elő, amelyekről a Google a mostani anyagában is ír, az Imagen pedig egy új elemmel gazdagítja a palettát, mivel a szövegből generált videók a közelmúltig nem voltak lehetségesek.
A Google cikének konklúziójában mindenesetre kiemelik, hogy a videós modellezés nagy számítási igényű dolog, amelyben értékes új technikát alkalmaznak a mintavételi folyamat felgyorsítására. Tekintettel a generatív modellezés terén a közelmúltban elért óriási előrehaladásra, a vállalat tudósai úgy láták, hogy a jövőben még bőven lesz lehetőségük a mesterséges intelligenciára épülő videógenerálás továbbfejlesztésére – bár úgy tűnik, hogy a fejlesztések közkinccsé tételéhez legalább ilyen fontos lesz a szóban forgó biztonsági és etikai kihívások leküzdése is. Ahogy írják, a generatív modellek alkalmasak a hamis, gyűlöletkeltő, explicit vagy káros tartalom generálására is, amit egyelőre a bemeneti szövegek és a kimeneti videótartalom szűrésével próbálnak korlátozni.
Biztonságos M2M kommunikáció nagyvállalti környezetben a Balasystól
A megnövekedett támadások miatt az API-k biztonsága erősen szabályozott és folyamatosan auditált terület, amelynek védelme a gépi kommunikáció (M2M) biztonságossá tételén múlik.
CIO KUTATÁS
TECHNOLÓGIÁK ÉS/VAGY KOMPETENCIÁK?
Az Ön véleményére is számítunk a Corvinus Egyetem Adatelemzés és Informatika Intézetével közös kutatásunkban »
Kérjük, segítse munkánkat egy 10-15 perces kérdőív megválaszolásával!
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak