苹果儿童保护功能(苹果扫描相册引起信任危机)
苹果在 8 月 12 日发布了一份声明,表示想要重拳打击儿童性虐待,限制儿童性虐待内容 (CSAM) 的传播,具体做法是:
- 如果用户向 Siri 提问或用 Spotlight 搜索儿童性虐相关的内容,苹果设备会进行干预,或上报有关部门;
- 信息 (Messages) 将新增监测工具,儿童接收色情图片时,图片会被模糊处理,而在发送类似图片之前会弹出警告,若坚持发送,家长手机则会收到提示消息;
- 苹果会在用户将照片上传 iCloud 之前,通过对比哈希数值的方式,判定所上传照片是否为儿童色情内容,如有发现,会上报至国家失踪和受虐儿童中心 (NCMEC),这一套流程被称为 CSAM 扫描。
▲ 图片来源:苹果
原本这是一件大好事,至少初衷是好的,可以掐断儿童色情内容的部分传播路径,但人们对于第三项 「扫描相册」这事儿存疑。
一是质疑苹果可能利用这一理由查看用户相册,二是担心在这过程中,黑客趁机侵入 iCloud 导致隐私泄漏。
这并不是无辜群众在杞人忧天,事情发酵至今,连斯诺登等人都发文表示自己对苹果此举的不满。
苹果后续进行了多次澄清声明,但为时已晚,苹果已深陷舆论漩涡。
狼来了狼走了,即便后面苹果撤销了上线 CSAM 扫描功能,人们也会怀疑苹果留有后手,这次事件至今还没有定论,尚且未知苹果会否视事态严重性延后或取消 CASM 相关计划。
至少我们从股票市场中,看不到苹果股价受这次风波影响的痕迹。
这次苹果树掉下的果子,砸得不是牛顿,而是消费者。
,免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com