苹果新功能引发众怒,公然查看用户照片?

4月前发布
749 0 36

啊这……

文章来源:瘾工厂
ID:ygc667
作者:瘾厂长
编辑:卝生

如果要问哪个手机品牌最注重保护用户的隐私,我想苹果一定榜上有名。

毕竟在很多人眼里,iOS系统就是安全、封闭,黑客想黑都黑不进~

这也是苹果最引以为傲的卖点之一。

苹果新功能引发众怒,公然查看用户照片?

可是你有没有想过,浓眉大眼的苹果有一天也会亲自窃取你的隐私呢?

呐,就在最近,苹果公布了新版iOS和iPadOS的更新细节,里面有一项新功能就引发了巨大争议。

苹果新功能引发众怒,公然查看用户照片?

简单来说,就是自动检测你有没有存储包含儿童色情的照片。

当用户的照片要储存到 iCloud 之前,该功能会自动对照片进行检测,检测其中有没有任何内容与已知的儿童色情照片相吻合。

如果有的话、而且照片还达到了一定数量,那系统就会马上通知苹果官方进行人工确认。

一旦最后发现它们真是儿童色情照片,苹果还会直接封了该用户的账号并通报执法单位。

苹果新功能引发众怒,公然查看用户照片?

emmm…虽然这功能名义上是为了打击儿童色情,但系统会自动检测用户存储的照片还是让人感到不适…

果然,消息一传开美国网友就开喷了,纷纷指责苹果在公然窃取用户的资料,违背了该公司保护隐私的原则和教条。

苹果新功能引发众怒,公然查看用户照片?

就连此前爆出“棱镜门”事件的斯诺登也在推特上对苹果此举表达了不满。

他声称苹果今天能扫描到儿童色情照片,明天就能扫描到任何东西!

苹果新功能引发众怒,公然查看用户照片?

而眼看着网友们越骂越凶,都快把库克祖坟给掘了,苹果官方也终于忍不住出来回应质疑。

它公布了一份快速问答文档来解答用户的疑问,文档中介绍了苹果是如何检测儿童色情照片的。

苹果新功能引发众怒,公然查看用户照片?

具体来说,检测过程中是采用了一种名为“NeuralHash“的加密技术。

首先,苹果与美国失踪和受虐儿童中心、以及其他儿童保护组织的资料库进行了合作。

当它检测用户存储的照片时,实际上是与资料库中的儿童色情照片进行比对。

只不过并不是直接查看照片,而是通过 NeuralHash 技术从图像中提取一组“哈希值”,看它是否与资料库中某张儿童色情照的哈希值相同,从而判定该照片是否违规。

苹果新功能引发众怒,公然查看用户照片?

而且苹果还指出,即使这些照片被编辑过也不怕,无论是被裁切还是从彩色改为黑白,它的哈希值都不会发生变化。

不仅能保证极高的正确率,而且还不会侵犯用户的隐私,实乃两全其美~

苹果新功能引发众怒,公然查看用户照片?

只不过对于这样的解释,很多网友并不买账,甚至还有专家表达不安。

比如一名专攻资安领域的学者 Matthew Green 就认为苹果的这项功能会打开先例,有朝一日会用来扫描其他禁止的内容,又或是被威权国家利用作为政治言论审查的工具。

因为这等于是在向大家展示,苹果即使在加密的情况下也能识别出你手机里的特定内容。

苹果新功能引发众怒,公然查看用户照片?

不过话说回来,苹果其实在隐私保护这方面已经够努力了。

要知道,在美国的法律中,科技公司是有义务要向当局回报儿童色情案件的

但苹果以往通报的案例却远远少于其他科技公司,比如去年他们只通报了265个案例,而作为对比,Facebook却通报了2030万个。

如此巨大的差距就是苹果不愿意侵犯用户隐私带来的。

只是现在,它也要越过那条线了…

苹果新功能引发众怒,公然查看用户照片?

好在

目前这个检测照片的功能只在美国推出

至于咱们嘛

还是先防一下手机上那堆流氓软件吧…

除非注明,文章均为设计癖原创,转载请注明「来自设计癖」,并给出设计癖原文链接,侵权必究。

你此刻的心情

  • 5

  • 0

  • 5

  • 26

  • 0

    全部评论(0)

相关文章推荐

瘾工厂

未知地点 | 保密

2个粉丝 0个关注

文章 1466 作品 0 投票 0

私信

文章 TOP10