Apple 的 iOS 17 扩大了对未经请求的裸照的保护

苹果的 iOS 17 使内容共享变得更加容易,但它也有新的保护措施来防止滥用这种新发现的功能。 公司拥有 发现 其即将推出的软件将添加敏感内容警告功能,帮助成年人避免未经请求的裸体照片和视频。 如果您收到可能令人担忧的信息,您可以拒绝、同意查看或了解获得帮助的方法。

除了消息应用程序之外,通信安全还可以保护孩子。 该功能将使用机器学习来检测和模糊通过 AirDrop、联系海报、FaceTime 消息和照片选择器发送和接收的露骨色情材料。 该技术现在除了静态照片之外还可以识别视频。 如果此内容到达,孩子们可以向值得信赖的成年人发送消息寻求帮助或寻找有用的资源。

敏感内容警告和通信安全都会在设备上处理媒体。 苹果还表示,它无法获取这些材料。 通信安全要求您启用家庭共享并将某些帐户标记为属于儿童。

苹果公布了 2021 年遏制未经请求的裸照的计划,同时还计划对上传到 iCloud 的照片中包含已知的儿童性虐待内容 (CSAM) 的照片进行标记。 由于担心政府可能会迫使该公司扫描其他图像类型,更不用说误报风险,该公司于 2022 年底取消了这一计划。 通信安全和敏感内容警告不存在这些问题——它们只是为了防止小人伤害他人。

立法者的目标是将不受欢迎的裸体定为犯罪,各个服务机构都有自己的反裸体检测工具。 从这个角度来看,苹果主要是在填补威慑系统的空白。 从理论上讲,可疑人物不会通过粗鲁的短信和电话攻击 iPhone 用户取得多大成功。

Engadget 推荐的所有产品均由我们的编辑团队选择,独立于我们的母公司。 我们的一些故事包括附属链接。 如果您通过这些链接之一购买商品,我们可能会获得会员佣金。 所有价格在发布时都是正确的。

来源