Egy biztonsági kutató a Twitteren tette közzé, hogy az Apple állítólag egy az iPhone-okon gyermekpornográfia tartalmakat észlelő rendszert élesít. A nemzetközi sajtó azonnal rárepült a hírre, amit – természetesen – az Apple nem erősítette meg. De egyértelmű cáfolat sem érkezett*.
A hír mellett akár el is lehetett volna siklani, csakhogy nem akárki kürtölte ki: az egyelőre egyedüli forrás ugyanis Matthew Green kriptográfiai szakértő, aki a Johns Hopkins információbiztonsági intézetének tanára, neves kutató. Ráadásul az iPhone-biztonság területén az egyik legjobbnak számít. Csapatával számos biztonsági rést tárt fel az Apple rendszerében és azon belül is a Messagesben. (Kutatásait, véleményét a Bitport is többször közölte.)
Üdvözlendő cél, kétes eszközök?
Az Apple, ahogy más érintett technológiai cégek is, komoly küzdelmet folytat a gyerekekkel szemben elkövetett szexuális visszaélések ellen. Általános gyakorlat például, hogy időről időre átvizsgálják az App Store-t, és minden olyan alkalmazást eltávolítanak az alkalmazásboltból, amelyek bármilyen módon kapcsolatba hozhatók a gyermekpornográfiával. Green azt állítja, hogy olyan védelmi rendszert vezetnek be (ún. CSAM, azaz Child Sexual Abuse Material), amely az iPhone-okon tárolt fényképek szkennelésével képes azonosítani az ilyen tartalmú pornográf anyagokat.
A CSAM analizálja a telefonon tárolt képeket, és előre megadott mintákkal összevetve azonosítja, hogy azok tartalmaznak-e büntetendő tartalmat, az elemzések eredményét pedig továbbítja az Apple szervereire.
Green szerint ez nagyon rossz ötlet, annak ellenére, hogy a cél természetesen nagyon is üdvös. Az ellenőrzés Green információi szerint az ügyféloldalon történik, de mint a Twitteren írja, egy ilyen eszköz bevetése könnyen elvezethet a telefonról küldött és fogadott adatforgalom teljes megfigyeléséhez.
Legnagyobb aggálya az, hogy a CSAM majd kulcsfontosságú összetevője lehet a titkosított üzenetküldő rendszerek kommunikációját lehallgató szoftvereknek. Magyarán egy olyan rés keletkezhet a végponti titkosítást használó eszközökön, ami magát a végponti titkosítást nullázza le. Mint írja, ez nagyon emlékeztet azokra a titkosítási backdoorokra, melyekre mindig is volt igény a bűnüldöző szervek részéről.
Ha valóban csak és kizárólag a gyermekpornográfia elleni küzdelemre lehetne használni, nem is lenne kérdés, hogy áldásos eszköz. De mivé válhat ugyanez egy autoriter kormány kezében? – teszi fel a kérdést a kutató (ehhez a bejegyzéséhez beidéz egy The New York Times-cikket, melynek egyik fotóján a kínai és az Apple-zászló leng egymás mellett).
Nem az Apple a főgonosz
Az Y Combinator fórumoldalán élénk vita alakult ki a témáról. Egy hozzászóló megjegyezte: a téma egyáltalán nem új. Beidézett egy az NBC Newson 2013-ban(!) megjelent cikket, amely ugyanezt a mechanizmust írja le. A Microsoft és a Dartmouth College kutatócsapata már akkor létrehozott egy olyan adatbázist, amely 16 ezer gyerekpornográf kép szignatúráját tartalmazta. A felhőszolgáltatók ez alapján azonosíthatták a rendszereikben tárol illegális tartalmakat, és megakadályozhassák azok terjesztését. Mint az NBC News cikke írja, ezt a Microsoft is használta például a Bingben és a 2014 óta OneDrive néven működő SkyDrive-ban.
A Microsoft fejlesztésére akkoriban kevesen figyeltek fel, igaz, nem is suhant át egy Pegasus az iparág fölött.
FRISSÍTÉS! Az Apple hivatalos bejelentéssel erősítette meg: három gyeremekvédelmi funkciót vezet be. Lesz egy szülői felügyelet funkció a Messages appban. Machine learning rendszer figyeli az üzeneteket (szöveg kép stb.), és ha érzékeny tartalmakat észlel, riasztást küld a szülőnek. A privát kommunikációt azonban az Apple nem tudja olvasni – állítja a közlemény.
A másik funkció a képek iCloud Photosba történő feltöltésekor szkenneli végig az összes fotót, és azokat összeveti olvassa be az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC – National Center for Missing & Exploited Children) fényképes adatbázisával. Ha egyezést talál, riasztást küld az illetékes hatóságoknak.
A harmadik újítás pedig, hogy a Siri és a Search a jövőben megakadályozza, ha a felhasználók gyerekbántalmazással bármilyen módon kapcsolatba hozható anyagokat keresnek. A funkciókat még az idén élesítik, de egyelőre csak az USA-ban lesznek elérhetők az iOS és az iPadOS 15-ös, a watchOS 8-as kiadásával, valamint a MacOS Montereyvel.
Azt, hogy ennek milyen visszás következményei lehetnek, Matthew Greennel összhangban, de néhány Twitter-bejegyzésnél jóval alaposabban elemzi az Electronic Frontier Foundation.
Nyílt forráskód: valóban ingyenes, de használatának szigorú szabályai vannak