A Common Sense Media kedden közölt egy új elemzést a népszerű MI-chatbotok etikus használatával, átlátható működésével, biztonságávalt és potenciális kockázataival kapcsolatban. Ennek fő megállapítása, hogy egyes szolgáltatások jobban kezelik ugyan a káros sztereotípiákat és a nyilvánvaló félretájékoztatást, így is hamis biztonság- és hitelességérzetet keltehetnek, ami különösen veszélyes a fiatal és befolyásolható felhasználókra nézve.
A vonatkozó közleményben külön figyelmeztetnek az olyan MI-chatbotokra, amelyek valós idejű keresést használnak (Perplexity), vagy többszörös ellenőrzéssel (double-check) dolgoznak (Gemini). Ezek a technikák növelhetik az átláthatóságot, de a Common Sense eredményei szerint a kimeneteik így sem mindig pontosak: bár a generatív MI-eszközöket úgy reklámozzák, hogy időt takarítanak meg az embernek, valójában csak "átrendezik az időbeosztást".
A Common Sense mesterséges intelligenciával foglalkozó vezető tanácsadója szerint az általuk végzett, piacvezető technológiákra vonatkozó elemzés is világossá teszi, hogy a felhasználóknak – különösen a gyerekeknek és a tinédzsereknek – el kell sajátítaniuk a kritikus gondolkodást, és több időt kell tölteniük az MI kimeneteinek ellenőrzésével. Rájuk nézve ugyanis túlzott kockázatot jelent, ha rögtön tényként fogadják el már az első eredményeket.
Ameddig választhatunk, addig érdemes is választani
Az egyes termékek egyébként változatosan teljesítettek a tesztek során: az Anthropic Claude robotja és a Google Gemini rendre "minimális" és "alacsony" kockázati besorolást kapott, míg a Perplexity például "magas" kockázati szintet képvisel. Ahogy írják, jelenleg a Gemini az egyetlen olyan platform, amelyik dedikált felhasználói élményt próbál létrehozni a tizenéveseknek, és a gyermekvédelmi biztosítékok mellett segít nekik megérteni a generatív MI korlátait is.
Ez utóbbi a Common Sense vezérigazgatója szerint azért különösen érdekes, mert a chatbotok és az új MI-funkciók fejlesztése és bevezetése túl gyors a fogyasztók (különösen a gyerekek) képességeihez viszonyítva, hogy megértsék a működésüket – ezért is fontos a folyamatos tájékoztatás a legjobb gyakorlatokról és azokról az emberi jogokat vagy az adatvédelmet veszélyeztető megoldásokról, amelyek állandósíthatják a félretájékoztatást és az elfogultságot.
Hogy az ilyesmit ajánlatos lenne komolyan venni, azt a felhasználási statisztikák is alátámasztják: a nonprofit szervezet egy korábbi felméréséből kiderült például, hogy a 12-18 éves amerikai diákok fele használta már a Chat GPT-t, de szüleiknek csak negyed része volt egyáltalán tisztában a dologgal. A robotok viselkedése eközben bizalmat ébreszt a gyerekekben, miközben az MI definíció szerint közömbös az érzéseikkel vagy szükségleteikkel kapcsolatban.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak