统计
  • 文章总数:1055 篇
  • 评论总数:10 条
  • 分类总数:7 个
  • 最后更新:2023年08月19日

Apple 将审查 iCloud 相册和 iMessages 应用

本文阅读 3 分钟
首页 IDC快讯 正文

作为扩大儿童安全计划的一部分,苹果公司将会添加旨在审查 Messages 应用程序和 iCloud 相册的功能。

苹果公司审查的目标是色情内容, Messages 将会为儿童用户接触的色情图片做模糊处理并通知他们的父母,但这不会使苹果公司获知消息内容本身。

与此同时,苹果公司会审查任何上传到 iCloud 相册中的内容是否与儿童色情(CSAM)有关。在上传相册前,Apple 会针对该图像与内嵌在系统中的一个已知CSAM(儿童色情)哈希值集进行匹配。

如果配对成功,设备就会创建一个加密安全凭证,该凭证与图像一起被上传到 iCloud Photos,一旦配对数量达到一定阈值,苹果就能解密该内容。苹果公司还采用了名为“神经网络哈希算法”的技术,使简单的裁剪修改无法规避苹果的检测。

苹果公司解释说,利用另一项称为阈值秘密共享的技术,该系统确保安全凭证的内容不能被苹果公司解密,除非 iCloud 照片账户跨越已知CSAM内容的阈值。该阈值的设置是为了提供极高的准确性,并确保每年错误标记一个特定账户的几率小于一万亿分之一。

这些被检测到的图像最终会经过人工审查,以确认是否存在匹配。此后苹果公司将会封禁用户 iCloud 账户,并向 NCMEC 发送一份报告,并与美国各地的执法机构合作。

这项功能将在 iOS 15, iPadOS 15, watchOS 8 和 macOS Monterey 的更新中推出,并首先在美国施行。

参考资料

Expanded Protections for Children(Apple)

本文来自投稿,不代表本站立场,如若转载,请注明出处:
-- 展开阅读全文 --
seo在选择站群服务器的注意事项
« 上一篇 08-10
青果云 - 国庆活动 美国GIA线路 年付199元
下一篇 » 08-11

发表评论

发表评论
    请配置好页面缩略名选项

热门文章

标签TAG

热评文章