苹果决议扫描用户iCloud相片与讯息内容 遭到斯诺登与EFF抨击
苹果宣布为了防范儿童性剥削内容流传,将扫描用户iCloud与iMessage,引发争议。(摘自苹果官网)
你觉得使用苹果(Apple)iPhone、iPad就代表你的隐私受到完整防护了吗?或许这个期待在过去成立,但很快地即将宣告破灭。苹果在日前与官网公告,为了进一步防止儿童性剥削内容(Child Sexual Abuse Material CSAM)在网路上流传与散播,他们将会对用户上传到iCloud的照片以及儿童用户的iMessage进行扫描。这一项政策,受到爱德华史诺登(Edwaed Snowden)以及电子前哨基金会(Electronic Frontier Foundation EFF)强烈抨击。
根据苹果官网说明,他们将实施的新政策包含三大层面。第一,若是iOS设备被认定为是由儿童所使用,「讯息」app将会使用设备上(on-device)机器学习技术来示警敏感的内容,并且会通知父母。第二,iOS以及iPadOS都会使用新的加密工具来防范儿童性剥削内容在网上流传。苹果指出他们将会扫描用户上传到iCloud照片是否包含CSAM,若发现还会通知警方;第三,Siri以及搜寻(Search)功能将会更新,防范用户搜寻到CSAM相关的内容。苹果指出,这些新政策将会导入在即将推出的iOS 15、iPadOS 15、watchOS 8以及macOS Monterey。根据苹果官网注释,这些改动应该会先在美国地区推行。
针对苹果的新政策,曾经因为将棱镜计划公布给媒体,在人们隐私防护上可谓先锋之一的前美国中央情报局(CIA)职员、国家安全局(NSA)外包技术员的爱德华史诺登,提出了抨击。他指出无论立意有多良善,苹果正对整个世界推出大型监控计划。而且他提出警告,今日如果苹果可以针对儿童性剥削内容进行扫描,他们明天就可以扫瞄任何内容。
而国际非营利组织电子前哨基金会(EFF)也同样对于苹果的决策提出强烈质疑。EFF指出,儿童性剥削是一个严重的问题,苹果也并非第一个为了打击这种现象而改变隐私保护立场的公司,但是这样的转变发生在一个点对点加密的倡导者,并且对他们开始扫瞄用户的行为感到非常失望。EFF指出,就算苹果能更完整说明技术细节,也宣称可以保护用户安全与隐私,但是就算这是一个经过完整考量、范围定义狭窄且会彻底留下记录的后门(backdoor),它仍旧是一个后门!
EFF指出,不可能建置一个只用于扫描儿童色情图片相关的系统。因此,即便苹果是出于善意,这仍旧会破坏苹果对于加密的承诺,也等于是为了更广泛的滥用打开一个大门。EFF直指,扫描用户上传在iCloud的照片,等于是降低了隐私防护。而他们认为苹果决定在iMessage中加入机器学习以及纳入通知父母的功能,也是远离强加密(Strong Encryption)立场的做法。
EFF认为人们有免于审查机制与后台,且能拥有私密沟通的权利,即便是还未成年的人们。他们认为苹果应该要做出正确的决策,并且将「后门」从人们的设备中挪走。
关于「后门」这个议题。先前苹果曾经多次拒绝美国警方或司法单位的要求,来协助解锁嫌疑犯的iPhone,或是甚至提供一种解锁机制(也就是「后门),让执法单位可以快速解锁特定人士的iPhone。相信这当中关于「后门」的机制与概念,跟保留于上述系统中扫描用户在iCloud中的照片的技术有部分类似之处。当初,苹果毅然决然地拒绝提供「后门」,但如今就算是为了防止儿童性剥削情况更严重而进行让政策转弯,看来虽是立意良善,但主动将使用者隐私大门打破,留下一道与执法单位、政府之间联系的管道,还有什么立场宣称以用户的隐私为主呢?