苹果将在iOS 15正式版全面上线新的儿童安全保护措施

时间:2021-08-07 13:41:00来源:网络整理

早些时候,苹果公司公布了新的儿童安全功能,为了扩大对儿童的保护。这些功能将于今年晚些时候在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

苹果公司表示,保护儿童是一项重要责任。这些努力将随着时间的推移而发展和扩大。苹果将使用新的密码学应用程序来帮助限制 “儿童性虐待内容”(Child Sexual Abuse Material,简称为“CSAM”)在线传播,同时为用户隐私进行设计。CSAM 检测将帮助 Apple 向执法部门提供有关 iCloud 照片中 CSAM 集合的宝贵信息。

苹果将在iOS 15正式版全面上线新的儿童安全保护措施

消息中的通信安全

首先,iPhone、iPad 和 Mac 上的 Messages 应用程序将获得一项新的通信安全功能以在收到或发送色情照片时,Messages 应用程序将使用设备上的机器学习来分析图像附件,如果照片被确定为色情内容,照片会被模糊处理,并且会警告儿童及其父母。

作为额外的预防措施,当儿童确实看到了消息,他们的父母会收到一条消息。如果儿童试图发送露骨的色情照片,则可以使用类似的保护措施。照片发送前孩子会收到警告,如果孩子选择发送,父母可以收到消息。

此功能将于今年晚些时候针对在 iOS 15、iPadOS 15 和 macOS Monterey 的 iCloud 中设置为家庭的帐户进行更新。

CSAM检测

为了帮助解决 CSAM 在线传播这个问题,苹果公司将能够检测存储在 iCloud 照片中已知的 CSAM 图像,从而使苹果公司能够将这些情况报告给国家失踪和受虐儿童中心 (NCMEC) 。

苹果方面表示,检测已知 CSAM 的方法在设计时考虑了用户隐私。该系统不是在云中扫描图像,而是使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库执行设备上匹配。进一步将此数据库转换为一组不可读的哈希值,并安全地存储在用户的设备上。

苹果将在iOS 15正式版全面上线新的儿童安全保护措施

扩展 Siri 和搜索中的指导

苹果公司还将通过提供更多资源来帮助儿童和父母保持在线安全并在不安全的情况下获得帮助,从而扩展 Siri 和搜索的指导。例如,询问 Siri 如何报告 CSAM 或儿童剥削的用户将被指向有关在何处以及如何提交报告的资源。

苹果将在iOS 15正式版全面上线新的儿童安全保护措施

Siri 和 Search 也正在更新,以便在用户在搜索与 CSAM 相关的内容时进行干预。这些干预措施将向用户解释对该主题的兴趣是有害的和有问题的。

Siri 和 Search 的这些更新也将于今年晚些时候在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

© 版权声明
相关推荐