1. 草头王先生首页
  2. 今日头条

苹果将在iOS 15审查iCloud照片以保护儿童,引发隐私保护争议

苹果将在iOS 15审查iCloud照片以保护儿童,引发隐私保护争议

图 / 图虫

来 源丨21世纪经济报道(ID:jjbd21)

作 者丨张雅婷 实习生张晓凤

编 辑丨曹金良

8月5号,苹果美国官网表示,将在iOS 15中添加新功能,用于检测存储在iCloud 照片中的儿童性虐待图片。此举得到了儿童保护组织的赞扬,也引发不利于隐私保护的争议。

苹果这款名为neuralMatch的工具将在图片上传到该公司的iCloud(在线存储工具)之前扫描它们,并将它们与已知的儿童虐待图片数据库进行比对。如果发现了高度匹配的图片,苹果员工将手动查看报告的图像,如果证实该用户存在虐待儿童的行为,用户的账户将被禁用,并且苹果将向美国国家失踪和受虐儿童中心(NCMEC)报告这些情况。

除了neuralMatch技术,苹果将在Messages 应用程序中添加新工具,能够自动识别色情图片,以在接收或发送色情照片时警告儿童及其父母。收到此类内容时,照片会被模糊处理。而照片发送和接收前孩子会收到警告,如果孩子决定发送或接收色情照片,家长将会得到通知。

苹果表示,这些更新将于今年在iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

“苹果扩大了对儿童的保护,这改变了游戏规则,”NCMEC首席执行官约翰·克拉克(John Clark)在推特表示。“有这么多人使用苹果产品,这些新的安全措施有可能挽救儿童的生命。”

但也有研究人员担心,这种扫描工具可能会带来新的危险。

约翰·霍普金斯大学密码学研究员马修·格林(Matthew Green)在推特提到,从理论上讲,该系统可能会被用来诬蔑无辜的人,例如给他们发送看似无害但依然能触发警报的图片,从而错误地封禁该用户。他同时提到,这项新功能让隐私保护的道路走得更加艰难。

此前揭露美国大规模监控“棱镜”计划的斯诺登,也在推特上发声:“不管多么善意,苹果正在用这个对全世界进行大规模监控。如果他们今天能扫描到儿童色情片,明天就能扫描到任何东西。”

近年来,苹果一直对外表示出自己对隐私保护的重视。今年,苹果发布了其新隐私保护政策,即应用跟踪透明度隐私功能(App Tracking Transparency,ATT),在ATT框架下,IDFA(设备广告标识符)的获取将变得困难,只有用户主动点击“授权同意”,应用才可使用IDFA用于广告定向投放及归因。

但非营利性国际法律组织“电子前沿基金会”(Electronic Frontier Foundation)在官网发文表示,iOS15中的这项新功能体现了苹果在隐私保护方面的妥协。“对于一直依赖苹果在隐私和安全方面领导地位的用户来说,是一个令人震惊的大转变”。

“在苹果,我们的目标是创造技术,赋予人们权利并丰富他们的生活,同时帮助他们保持安全。我们希望帮助保护儿童免受他人的侵犯,并限制儿童性虐待材料(CSAM)的传播。”

苹果否认这些新工具会破坏它的隐私保护功能。

苹果在发布新功能的通知中提到,新技术只会扫描图片并确认图片是否与NCMEC提供的图片序列匹配,并不会直接看到图片,只有匹配程度超过一定阈值后,该技术才会允许苹果对图片进行人工审核。如果用户账户被错误封禁,可以向苹果申诉恢复账号。

本期编辑 刘巷 实习生 王绮彤

原创文章,微信公众号:草头王先生,如若转载,请务必注明出处:http://iapps.fun/2431.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注