Az xAI vezérigazgatójaként is tisztelt Elon Musk október végén jelentette be, hogy a cég Grok chatbotjának funkcióit kibővítették a képes tartalom feldolgozásával, amit az X közösségi platfrom előfizetői ki is próbálhatnak, ha képeket töltenek fel és kérdéseket tesznek fel róluk a mesterséges intelligenciának. Akinél ebből nem következik semmi, az nem véletlenül nem ül Musk helyén, az xAI vezetője ugyanis egyből elkezdte arra biztatni a felhasználókat, hogy küldjék be az orvosi képalkotó eljárásokkal (röntgen, PET, MRI stb.) leleteiket a Groknak elemzésre. A modell ilyen irányú képességéről azt írta, hogy még korai szakaszában van, de már így is elég pontos, később pedig még annál is jobb lesz.
Musk arra kérte az embereket, hogy adjanak visszajelzést, hol csinálta jól vagy miben tévedett az xAI modellje. Ezt pedig a hírek szerint sokan meg is tették, és a hajmeresztő adatvédelmi vonatkozások ellenére is feltöltötték leleteiket, sőt egyes esetekben még nyilvánosan is megosztották az eredményeiket. A szakértők nem meglepő módon úgy látják, hogy ez nem feltétlenül jó ötlet, tekintettel a chatbotokkal biztonsági hiányosságaira vagy Musk cégeinek átláthatósági problémáira. Ahogy a Vanderbilt Egyetem orvosbiológiai informatikus professzora a The New York Times cikkében felhívja rá a figyelmet, nagyon személyes információról van szó, és nem tudni, hogy a Grok mit fog kezdeni vele.
Amit tudnak, azt valószínűleg rosszul tudják
Azok a felhasználók, akik megosztják egészségügyi adataikat Musk chatbotjával, jó eséllyel azt gondolják, hogy ebben az esetben is védik őket azok a szövetségi törvények, amelyek például az orvosokat is korlátozzák az ilyen információ továbbadásában. A NYT riportjából azonban kiderül, hogy nem ez a helyzet: ha valaki saját maga hozza nyilvánosságra az adatait egy közösségi oldalon, akkor nincs miről beszélni, és ebben az esetben olyan megállapodások sem érvényesek, amelyeket a technológiai cégek az egészségügyi szolgáltatókkal szoktak kötni az információ tárolásáról és használatról. A Groknál viszont csak remélhetik, hogy az xAI tényleg úgy működik, ahogy ők szeretnék.
Másik lényeges szempont, hogy a pontatlan válaszok a betegeket is veszélybe sodorhatják: mint kiderült, az MI-chatbot rosszul azonosított többek között egy kulcscsonttörést, az Elon Musk bejegyzésére reagáló orvosok szerint nem ismerte fel a tuberkulózis "tankönyvi esetét", vagy éppen összetévesztett egy jóindulatú cisztát egy herével. A lényeg nyilván az xAI nagy nyelvi modelljének finomhangolása az így begyűjtött adatok segítségével, de ez nem jelenti, hogy a felhasználókat nem kell tájékoztatni a mesterséges intelligencia hallucinációra való hajlamáról vagy arról a kockázatról, amit az érzékeny személyes adatok külső szereplők általi kibányászhatósága jelent az ilyen rendszerekből.
Az xAI-nak saját meghatározása alapján nem célja az érzékeny személyes adatok gyűjtése, de ennek Musk felhívása némileg ellentmond. Az X és az xAI adatvédelmi szabályzata ráadásul úgy fogalmaz, hogy a felhasználói információt nem adhatja el harmadik feleknek, "kapcsolódó cégeknek" azonban igen – hívja fel rá a figyelmet a NYT. Azt természetesen a szakemberek is lehetségesnek tartják, hogy Musk vállalatai explicit korlátokat alkalmaznak a Grokkal megosztott egészségügyi adatok védemére, csak azokat nem osztják meg a nyilvánossággal. Egyéni felhasználóként azonban nem tarták megnyugtatónak a felállást, és másoknak sem javasolják, hogy a leleteikkel etessék az xAI MI-jét.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak