苹果在一夜之间从其网站上的儿童安全网页上删除了其 CSAM 计划的所有迹象,但该公司已明确表示该计划仍在进行中。
Apple于 8 月宣布,它将为iOS和iPadOS引入一系列功能,以帮助保护儿童免受掠食者的侵害并限制儿童性虐待材料 (CSAM) 的传播。在对该提案提出相当多的批评之后,苹果似乎正在退出这项努力。
该儿童安全对苹果网站页面过的入儿童安全工具的详细介绍,直到12月10日。据 MacRumors报道,在那一天之后,参考文献从页面上被清除了。
Apple 完全删除其无法向公众发布的产品或功能的提及是不寻常的,因为这种行为在AirPower充电板中非常有名。这样的行动可以被视为苹果公开放弃该功能,尽管未来的第二次尝试总是合理的。
Apple 的功能由多种元素组成,以多种方式保护儿童。提出的主要 CSAM 功能使用系统来检测存储在用户照片库中的滥用图像。如果用户打开了 iCloud 照片,此功能会在设备上扫描用户的照片,并将它们与已知侵权材料的哈希数据库进行比较。
第二个功能已经实施,旨在保护年轻用户不会在 iMessage 中看到或发送色情照片。最初,此功能会在发现此类图像时通知父母,但在实施后,没有外部通知。
第三个增加了对 Siri 和搜索的更新,提供了额外的资源和指导。
在这三个中,后两个在周一发布了 iOS 15.2。更有争议的 CSAM 元素没有。
Apple 网站上的 Child Safety 页面先前解释说,Apple 正在引入设备上的 CSAM 扫描,它将图像文件哈希与已知 CSAM 图像哈希的数据库进行比较。如果有足够数量的文件被标记为 CSAM,Apple 会就此事联系美国国家失踪和受虐儿童中心 (NCMEC)。
该页面的更新版本不仅删除了有关 CSAM 检测的部分,而且还删除了该页面介绍、Siri 和搜索指南中的引用,以及一个提供解释和评估其 CSAM 过程的 PDF 链接的部分。
周三下午,The Verge 被告知苹果的计划没有改变,重新思考的暂停仍然只是暂时的延迟。
在 8 月份宣布其提议的工具后不久,Apple 不得不回应安全和隐私专家以及其他批评者关于 CSAM 扫描本身的说法。批评者认为该系统侵犯了隐私,并开始滑坡,可能导致政府使用其扩展形式来有效地执行设备监控。
反馈来自广泛的批评者,从隐私权倡导者和一些政府到德国的记者协会、爱德华·斯诺登和比尔·马赫。尽管试图提出该功能的案例,并且承认它未能正确传达该功能,但苹果公司还是在 9 月份推迟了发布以重新考虑该系统。
美国东部时间12 月 15 日下午 1:39更新:Apple 更新,澄清其计划不变。
领取专属 10元无门槛券
私享最新 技术干货