iOS 18.2 推出儿童安全新功能:模糊裸体并报告
在 iOS 18.2 中,苹果正在 添加 一项新功能,该功能恢复了其已停止的 CSAM 扫描计划背后的部分意图——这一次,没有破坏端到端加密或为政府提供后门。该功能首先在澳大利亚上线,公司扩展的通信安全功能利用设备上的机器学习来检测和模糊裸体内容,添加警告,并要求用户确认后才能继续。如果孩子未满 13 岁,他们不输入设备的“屏幕使用时间”密码就无法继续。
如果设备的内置机器学习检测到裸体内容,该功能会自动模糊照片或视频,显示该内容可能敏感的警告,并提供获取帮助的方式。选择包括离开对话或群组线程、屏蔽此人以及访问在线安全资源。
该功能还会显示一条消息,让孩子放心,不查看内容或者离开聊天没问题。还有一个给父母或监护人发送消息的选项。如果孩子年满 13 岁,在收到这些警告后,他们仍然能够确认想要继续——同时再次提醒能够选择退出,并且还有进一步的帮助可用。 据《卫报》报道 《卫报》称,它还包括向苹果报告图像和视频的选项。
该功能会解析 iPhone 和 iPad 上“信息”、“隔空投送”、联系人海报(即“电话”或“联系人”应用中的)以及“FaceTime 视频消息”中的照片和视频。此外,如果孩子选择一张照片或一段视频与某些第三方应用分享,它也会对其进行扫描。
其他设备所支持的应用程序存在细微差别。在 Mac 上,若用户选择通过其共享内容,它就会扫描消息及部分第三方应用程序。在 Apple Watch 上,其涵盖了消息、联系人海报以及 FaceTime 视频消息。最后,在Vision Pro上,此功能会扫描消息、AirDrop 以及部分第三方应用程序(处于上述相同条件下)。
该功能要求具备 iOS 18、iPadOS 18、macOS 红杉或者 visionOS 2 。
《卫报》报道称,苹果计划在澳大利亚试验后在全球拓展。该公司选择澳大利亚可能出于一个具体原因:该国即将推出新的规定,要求大型科技公司监管涉及儿童虐待和恐怖的内容。作为新规则的一部分,澳大利亚同意增加这样的条款,即只有在技术可行的情况下才强制要求,省略了打破端到端加密以及损害安全性的要求。各公司需要在年底前遵守。
用户隐私和安全处于苹果因试图监管 CSAM 而引发的那场声名狼藉的争议的核心位置。2021 年,苹果准备采用一个能够 扫描网络性虐待图像 的系统,之后将其发送给人工审核员。(鉴于苹果此前曾因 联邦调查局试图解锁属于一名恐怖分子的 iPhone 而与之对抗,这多少令人感到震惊。)隐私和安全专家认为,该功能会在不存在任何剥削性材料的情况下,为专制政权监视其公民打开后门。次年,苹果 放弃了该功能 ,(间接地)促成了如今所宣布的更平衡的儿童安全功能。
一旦它在全球范围内推出,您可以在设置 > 屏幕使用时间 > 通信安全下启用该功能,并将该选项开启。自 iOS 17 以来,该部分已默认激活。