面对批评与争议,苹果让步,延迟推出CSAM儿童保护功能

上个月,苹果公司宣布推出了几项保护儿童的技术功能,包括 Messages 信息应用中敏感图像筛查、iCloud 中儿童性虐待内容的检测(CSAM)以及 Siri 和搜索功能的相关内容的支持。并且,针对 iCloud 中的儿童性虐待图片,苹果表示还将向执法部门报告上传。

而这一消息传出之后,苹果就收到了来自各方的压力和负面消息,更多人对于CSMA功能泄露隐私的担忧。而在重压之下,苹果公司于近日宣布推迟 CSAM 儿童保护功能,并表示「在面向公众推迟之前,公司将投入更多时间来完善这些功能。」苹果表示,来自客户、非营利组织和倡导团体、研究人员以及其他人的反馈,促使苹果推迟了这项计划。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索