Bo Apple res skeniral iPhone za otroško pornografijo?
Dare Hriberšek
5. avg 2021 ob 20:53:05
Orodje naj bi se pri iskanju zanašalo na zgoščeni zapis fotografij CSAM, ki jih bo primerjalo s spornimi fotografijami v Applovih arhivih in o morebitnih spornih najdbah obvestilo človeške nadzornike. Kolikor je trenutno znanega o zadevi, pa naj bi primerjanje potekalo le po nešifriranih fotografijah, ki jih uporabniki shranijo v iCloud, vse druge naj bi vsaj v začetni fazi pustili pri miru.
Novico je prvi objavil Matthew Green, profesor pri John Hopkins Information Security Institute, ki sicer profesionalno spremlja Applove pristope do zasebnosti, s podjetjem pa tudi sicer sodeluje. Green pravi, da ima več potrditev, da bo orodje predstavljeno v naslednjih dneh, vse skupaj pa je po njegovem mnenju slaba zamisel, ki utegne povzročiti precejšen padec pri standardih zasebnosti uporabnikov. Green še poudarja, da je tehnologija zgoščenih zapisov CSAM namenoma zasnovana nenatančno, saj bi lahko posameznik že najmanjšo spremembo svoje fotografije izognil zadetku pri primerjavi. To pa omogoča resne zasebnostne incidente: denimo pregledovanje fotografij uporabnikov, ki se pozneje izkažejo za nedolžne ali pa, kar je še huje, vse skupaj lahko sproži kolesje kazenskega postopka, kar lahko pomeni dolgotrajen zaseg vseh naprav, pripor, izgubo službe in ugleda posameznika, četudi se pozneje izkaže za nedolžnega.
Applovo uklanjanje, če informacije seveda držijo, naj bi bila posledica tega, da so tehnološka podjetja v zadnjem času začela uvajati celostno, torej end-to-end šifriranje, s čimer so organom pregona precej otežila iskanje storilcev kaznivih dejanj. Tehnologije skeniranja na daljavo naj bi bile tako nekakšen kompromis med pritiski posameznih vlad in ohranjanjem zasebnosti večine uporabnikov. Jasno pa je, da gre za korak v smer, ki jo bo zelo težko kdaj v bodoče preobrniti nazaj.