当前位置: 首页 > 装修吧 >

苹果将在iOS 15审查iCloud照片以保护儿童,引发隐私保护争议

时间:2021-08-23 14:17:12 来源:网络整理
券商直言:指数牛已入尾声,结构牛动力已由估值端转为业绩端

 

  图 / 图虫

  来 源丨21世纪经济报道(ID:jjbd21)

  作 者丨张雅婷 实习生张晓凤

  编 辑丨曹金良

  8月5号,苹果美国官网表示,将在iOS 15中添加新功能,用于检测存储在iCloud 照片中的儿童性虐待图片。此举得到了儿童保护组织的赞扬,也引发不利于隐私保护的争议。

  苹果这款名为neuralMatch的工具将在图片上传到该公司的iCloud(在线存储工具)之前扫描它们,并将它们与已知的儿童虐待图片数据库进行比对。如果发现了高度匹配的图片,苹果员工将手动查看报告的图像,如果证实该用户存在虐待儿童的行为,用户的账户将被禁用,并且苹果将向美国国家失踪和受虐儿童中心(NCMEC)报告这些情况。

  除了neuralMatch技术,苹果将在Messages 应用程序中添加新工具,能够自动识别色情图片,以在接收或发送色情照片时警告儿童及其父母。收到此类内容时,照片会被模糊处理。而照片发送和接收前孩子会收到警告,如果孩子决定发送或接收色情照片,家长将会得到通知。

  苹果表示,这些更新将于今年在iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

  “苹果扩大了对儿童的保护,这改变了游戏规则,”NCMEC首席执行官约翰·克拉克(John Clark)在推特表示。“有这么多人使用苹果产品,这些新的安全措施有可能挽救儿童的生命。”

  但也有研究人员担心,这种扫描工具可能会带来新的危险。

  约翰·霍普金斯大学密码学研究员马修·格林(Matthew Green)在推特提到,从理论上讲,该系统可能会被用来诬蔑无辜的人,例如给他们发送看似无害但依然能触发警报的图片,从而错误地封禁该用户。他同时提到,这项新功能让隐私保护的道路走得更加艰难。

  此前揭露美国大规模监控“棱镜”计划的斯诺登,也在推特上发声:“不管多么善意,苹果正在用这个对全世界进行大规模监控。如果他们今天能扫描到儿童色情片,明天就能扫描到任何东西。”

  近年来,苹果一直对外表示出自己对隐私保护的重视。今年,苹果发布了其新隐私保护政策,即应用跟踪透明度隐私功能(App Tracking Transparency,ATT),在ATT框架下,IDFA(设备广告标识符)的获取将变得困难,只有用户主动点击“授权同意”,应用才可使用IDFA用于广告定向投放及归因。

  但非营利性国际法律组织“电子前沿基金会”(Electronic Frontier Foundation)在官网发文表示,iOS15中的这项新功能体现了苹果在隐私保护方面的妥协。“对于一直依赖苹果在隐私和安全方面领导地位的用户来说,是一个令人震惊的大转变”。

  “在苹果,我们的目标是创造技术,赋予人们权利并丰富他们的生活,同时帮助他们保持安全。我们希望帮助保护儿童免受他人的侵犯,并限制儿童性虐待材料(CSAM)的传播。”

  苹果否认这些新工具会破坏它的隐私保护功能。

  苹果在发布新功能的通知中提到,新技术只会扫描图片并确认图片是否与NCMEC提供的图片序列匹配,并不会直接看到图片,只有匹配程度超过一定阈值后,该技术才会允许苹果对图片进行人工审核。如果用户账户被错误封禁,可以向苹果申诉恢复账号。

  本期编辑 刘巷 实习生 王绮彤

本文首发于微信公众号:21世纪经济报道。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

免责声明:安家啦家居网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

分享到: 分享到QQ微博 分享到QQ空间 分享到新浪微博 分享二维码

新闻推荐

图文资讯

今日聚焦

装修设计

家装家居

消费指南

装修案例