苹果新功能引发众怒,公然查看用户照片?
啊这……
文章来源:瘾工厂
ID:ygc667
作者:瘾厂长
编辑:卝生
如果要问哪个手机品牌最注重保护用户的隐私,我想苹果一定榜上有名。
毕竟在很多人眼里,iOS系统就是安全、封闭,黑客想黑都黑不进~
这也是苹果最引以为傲的卖点之一。
可是你有没有想过,浓眉大眼的苹果有一天也会亲自窃取你的隐私呢?
呐,就在最近,苹果公布了新版iOS和iPadOS的更新细节,里面有一项新功能就引发了巨大争议。
简单来说,就是自动检测你有没有存储包含儿童色情的照片。
当用户的照片要储存到 iCloud 之前,该功能会自动对照片进行检测,检测其中有没有任何内容与已知的儿童色情照片相吻合。
如果有的话、而且照片还达到了一定数量,那系统就会马上通知苹果官方进行人工确认。
一旦最后发现它们真是儿童色情照片,苹果还会直接封了该用户的账号并通报执法单位。
emmm…虽然这功能名义上是为了打击儿童色情,但系统会自动检测用户存储的照片还是让人感到不适…
果然,消息一传开美国网友就开喷了,纷纷指责苹果在公然窃取用户的资料,违背了该公司保护隐私的原则和教条。
就连此前爆出“棱镜门”事件的斯诺登也在推特上对苹果此举表达了不满。
他声称苹果今天能扫描到儿童色情照片,明天就能扫描到任何东西!
而眼看着网友们越骂越凶,都快把库克祖坟给掘了,苹果官方也终于忍不住出来回应质疑。
它公布了一份快速问答文档来解答用户的疑问,文档中介绍了苹果是如何检测儿童色情照片的。
具体来说,检测过程中是采用了一种名为“NeuralHash“的加密技术。
首先,苹果与美国失踪和受虐儿童中心、以及其他儿童保护组织的资料库进行了合作。
当它检测用户存储的照片时,实际上是与资料库中的儿童色情照片进行比对。
只不过并不是直接查看照片,而是通过 NeuralHash 技术从图像中提取一组“哈希值”,看它是否与资料库中某张儿童色情照的哈希值相同,从而判定该照片是否违规。
而且苹果还指出,即使这些照片被编辑过也不怕,无论是被裁切还是从彩色改为黑白,它的哈希值都不会发生变化。
不仅能保证极高的正确率,而且还不会侵犯用户的隐私,实乃两全其美~
只不过对于这样的解释,很多网友并不买账,甚至还有专家表达不安。
比如一名专攻资安领域的学者 Matthew Green 就认为苹果的这项功能会打开先例,有朝一日会用来扫描其他禁止的内容,又或是被威权国家利用作为政治言论审查的工具。
因为这等于是在向大家展示,苹果即使在加密的情况下也能识别出你手机里的特定内容。
不过话说回来,苹果其实在隐私保护这方面已经够努力了。
要知道,在美国的法律中,科技公司是有义务要向当局回报儿童色情案件的
但苹果以往通报的案例却远远少于其他科技公司,比如去年他们只通报了265个案例,而作为对比,Facebook却通报了2030万个。
如此巨大的差距就是苹果不愿意侵犯用户隐私带来的。
只是现在,它也要越过那条线了…
好在
目前这个检测照片的功能只在美国推出
至于咱们嘛
还是先防一下手机上那堆流氓软件吧…
除非注明,文章均为设计癖原创,转载请注明「来自设计癖」,并给出设计癖原文链接,侵权必究。
你此刻的心情
-
5
-
0
-
5
-
26
-
0
全部评论(0)